Amazon Web Service | Cedoc
El acelerador llamado Trainium3 ya fue instalado en algunos de los centro de datos. La compañía busca destacar en el ámbito de las inteligencias artificiales, siendo el máximo proveedor de servicios de cómputo y almacenamiento en la nube.
Amazon.com Inc. aceleró el lanzamiento de la última versión de su chip de inteligencia artificial, parte de su plan de competir con los productos de Nvidia Corp. y Google.
El acelerador, llamado Trainium3, fue instalado recientemente en algunos centros de datos y estará disponible para los clientes a partir del martes, dijo en una entrevista Dave Brown, vicepresidente de Amazon Web Services.
“A medida que entremos en los primeros meses del próximo año comenzaremos a escalar muy, muy rápido”, afirmó.
Desarrollar chips es un elemento clave de la estrategia de Amazon para destacar en el ámbito de la IA. AWS es el mayor proveedor de servicios de cómputo y almacenamiento en la nube. Pero ha tenido dificultades para replicar ese dominio entre los principales desarrolladores de herramientas de inteligencia artificial, dado que algunas compañías prefieren apoyarse en Microsoft Corp., que mantiene una relación cercana con OpenAI, creadora de ChatGPT, o en Google de Alphabet Inc.
Las acciones de Amazon subían 1,6% a las 12:04 p.m. en Nueva York. Los de Nvidia recortaron ganancias, mientras que Advanced Micro Devices Inc., otro rival en chips de IA, cayó a su nivel más bajo de la sesión.
Amazon espera atraer a compañías que buscan una opción más económica. Según la empresa, los chips Trainium pueden manejar los cálculos intensivos que exigen los modelos de inteligencia artificial de manera más barata y eficiente que las unidades de procesamiento gráfico líderes de Nvidia. “Estamos muy satisfechos con nuestra capacidad de lograr el rendimiento adecuado al precio adecuado con Trainium”, dijo Brown.
Amazon lanza Trainium3 aproximadamente un año después de desplegar su predecesor. Es una carrera intensa para los estándares de la industria de chips. “Lo principal que esperamos aquí es simplemente no ver ningún tipo de humo o fuego”, bromeó un ingeniero de AWS cuando el chip se encendió por primera vez en agosto.
El ritmo acelerado también coincide con el de Nvidia, que se comprometió a lanzar un chip nuevo cada año.

Hay un inconveniente: los chips de Amazon carecen de las extensas librerías de software que ayudan a los clientes a poner en marcha rápidamente las unidades de Nvidia. Bedrock Robotics, una empresa que utiliza modelos de inteligencia artificial para operar maquinaria de construcción de manera autónoma, ejecuta su infraestructura en servidores de AWS. Pero cuando debe construir los modelos que guían una excavadora, Bedrock recurre a los chips de Nvidia, según su director de tecnología, Kevin Peterson.
“Necesitamos que sea eficiente y fácil de usar”, dijo Peterson. “Eso es Nvidia.”
Muchos de los chips Trainium en uso hoy están a disposición de Anthropic, en centros de datos de Indiana, Mississippi y Pennsylvania. AWS dijo a principios de este año que había conectado más de 500.000 de ellos para ayudar a la startup a entrenar sus modelos más recientes y que planea dedicar 1 millón de chips a Anthropic para finales del año.
Amazon apuesta a que el éxito de Anthropic, junto con sus propios servicios de IA, atraerá a otras compañías. La empresa ha anunciado pocos clientes adicionales de envergadura para el chip, lo que deja a los analistas con dificultades para evaluar la efectividad de Trainium. Anthropic también utiliza las Tensor Processing Units de Google y firmó este año un acuerdo con la unidad de Alphabet que le da acceso a decenas de miles de millones de dólares en poder de cómputo.
Amazon hizo el anuncio del chip en re:Invent, su conferencia anual de usuarios que en los últimos años se ha convertido en una vitrina continua de servicios de inteligencia artificial. En ella, la compañía corteja tanto a desarrolladores de herramientas avanzadas como a empresas interesadas en pagar por acceder a ellas.
El martes, Amazon también anunció actualizaciones para su línea principal de modelos de inteligencia artificial, llamada Nova. Los nuevos productos Nova 2 incluyen una variante llamada Omni, capaz de recibir texto, imagen, voz o video y responder con texto o imágenes.
Al igual que con sus chips, Amazon busca convencer a los clientes con el rendimiento de sus modelos en relación a su precio. Las versiones previas de Nova generalmente no se ubicaron entre los líderes de la industria en pruebas que miden cómo responden los modelos de IA a preguntas estandarizadas.
“El verdadero punto de referencia es el mundo real”, dijo en una entrevista Rohit Prasad, quien lidera gran parte del desarrollo de modelos de Amazon y el equipo de Inteligencia Artificial General de la empresa. Agregó que esperaba que los nuevos modelos fueran competitivos.
La compañía también planea permitir que los clientes utilicen más datos al personalizar los modelos de Amazon. Nova Forge, un nuevo producto, está diseñado para permitir que usuarios avanzados accedan a versiones de los modelos Nova antes de que concluya su entrenamiento y los adapten con su propia información.ra
Reddit Inc. está usando Nova Forge para desarrollar un modelo capaz de evaluar si una publicación en su plataforma viola las políticas de seguridad del sitio. Chris Slowe, director de tecnología de la compañía, dijo que algunos clientes de IA tienden a usar el modelo más avanzado para todo, en lugar de buscar uno con una especialización concreta.
“El hecho de que podamos convertirlo en un experto en nuestra área específica es de donde proviene el valor”, dijo en una entrevista.

Más historias
Llegan los primeros F-16 a la Argentina: cómo son los cazas supersónicos que lucen un esquema de pintura «furtivo»
Informe de la UIA: El 40% de las empresas redujo la producción y aumentan los despidos
Llegó a Ezeiza el primer vuelo directo desde China