OpenAI construye el primer chip con Broadcom y TSMC, comprometidos con el soporte

OpenAI está trabajando con Broadcom y TSMC para construir su primer chip interno diseñado para respaldar sus aplicaciones de inteligencia artificial, mientras agrega chips AMD junto con chips Nvidia para satisfacer las necesidades de cada vez más edificios, dijeron fuentes a Reuters.

OpenAI, la empresa de rápido crecimiento detrás de ChatGPT, ha explorado una variedad de opciones para diversificar el suministro de chips y reducir costos. OpenAI imaginó construir todo internamente y recaudar fondos para un costoso plan para construir una red de empresas conocidas como “fundaciones” para la fabricación de chips.

La compañía ha abandonado por el momento proyectos de construcción a gran escala debido al coste y el tiempo necesarios para construir la red, y en su lugar planea centrar sus esfuerzos en chips dentro de la casa, según fuentes que pidieron no ser identificadas ya que No se les permitió discutir en privado. noticias.

La estrategia de la compañía, detallada aquí por primera vez, destaca cómo la startup de Silicon Valley está aprovechando las asociaciones industriales y una combinación de métodos internos y externos para asegurar el suministro de chips y controlar los costos, como Amazon, Meta, Google y Microsoft. Como uno de los mayores compradores de chips del mundo, la decisión de OpenAI de retirarse de una variedad de fabricantes de chips mientras desarrolla su propio chip personalizado podría tener implicaciones de gran alcance para el departamento de tecnología.

Las acciones de Broadcom subieron después del informe, terminando las operaciones del martes con un alza de más del 4,5 por ciento. Las acciones de AMD también ampliaron sus ganancias desde la sesión de la mañana, terminando el día con un alza del 3,7 por ciento.

OpenAI, AMD y TSMC declinaron hacer comentarios. Broadcom no respondió de inmediato a una solicitud de comentarios.

OpenAI, que ayudó a desarrollar una IA que produce respuestas a preguntas similares a las humanas, depende de una enorme potencia informática para entrenar y ejecutar su sistema. Como uno de los mayores consumidores de unidades de procesamiento de gráficos (GPU) de Nvidia, OpenAI utiliza chips de IA tanto para entrenar modelos en los que la IA aprende de los datos como para proporcionar retroalimentación, utiliza la IA para hacer predicciones o decisiones basadas en nueva información.

Reuters informó anteriormente sobre los planes de diseño de chips de OpenAI. Noticias informadas en conversaciones con Broadcom y otros.

OpenAI ha estado trabajando durante meses con Broadcom para construir su primer chip de IA centrado en las emociones, según las fuentes. Actualmente, la demanda de chips de entrenamiento es alta, pero los analistas han pronosticado que la demanda de chips puede superarla a medida que se implementen más aplicaciones de IA.

Broadcom ayuda a empresas, incluida Google, unidad de Alphabet, a optimizar los diseños para la fabricación y proporciona funciones de diseño que ayudan a mover información y apagar chips más rápido. Esto es importante en aplicaciones de IA donde decenas de miles de chips están conectados para trabajar en conjunto.

OpenAI todavía está decidiendo si desarrollará o adquirirá componentes adicionales para el diseño de su chip, y puede incorporar socios adicionales, dijeron las dos fuentes.

La compañía ha reunido un equipo de unas 20 personas, liderado por los mejores ingenieros que jamás hayan construido Unidades de Procesamiento Tensorial (TPU) en Google, incluidos Thomas Norrie y Richard Ho.

Las fuentes dijeron que con Broadcom, OpenAI ha asegurado capacidad de producción con Taiwan Semiconductor Manufacturing Company para fabricar su primer chip hecho a medida en 2026. Dicen que el marco de tiempo puede cambiar.

Actualmente, las GPU de Nvidia tienen una cuota de mercado superior al 80%. Pero la escasez y el aumento de los costos han llevado a grandes clientes como Microsoft, Meta y ahora OpenAI a explorar alternativas internas o subcontratadas.

El uso propuesto por OpenAI de chips AMD en Azure de Microsoft, reportado por primera vez aquí, muestra cómo los nuevos chips MI300X de AMD están tratando de obtener una porción del mercado dominado por Nvidia. AMD ha estimado 4.500 millones de dólares en ventas de chips de IA en 2024, tras el lanzamiento del chip en el cuarto trimestre de 2023.

Entrenar modelos y servicios de IA como ChatGPT es caro. OpenAI ha estimado una pérdida de 5 mil millones de dólares este año sobre ingresos de 3,7 mil millones de dólares, según fuentes. Los costos de computación, o el costo del hardware, la electricidad y los servicios en la nube necesarios para procesar grandes bases de datos y desarrollar modelos, son los mayores costos de la empresa, lo que impulsa el esfuerzo de mejorar el uso y el intercambio de proveedores de bienes.

OpenAI ha sido cauteloso a la hora de cazar talentos de Nvidia porque quiere mantener una buena relación con el fabricante de chips con el que siempre está dispuesto a trabajar, especialmente para el acceso a su nueva generación de chips Blackwell, agregaron las fuentes.

Nvidia se negó a hacer comentarios.

© Thomson Reuters 2024

Fuente