OpenAI colabora con Broadcom y TSMC para crear su primer chip y ajusta su estrategia de fundición

Forbes México.
OpenAI colabora con Broadcom y TSMC para crear su primer chip y ajusta su estrategia de fundición

OpenAI está trabajando con Broadcom y TSMC para construir su primer chip interno diseñado para soportar sus sistemas de inteligencia artificial, mientras agrega chips AMD junto con los de Nvidia para satisfacer sus crecientes demandas de infraestructura, aseguraron fuentes.

OpenAI, la compañía de rápido crecimiento detrás de ChatGPT, examinó una variedad de opciones para diversificar el suministro de chips y reducir costos.

La tecnológica consideró construir todo internamente y recaudar capital para un costoso plan para construir una red de fábricas conocidas como “fundiciones” para la fabricación de chips.

La compañía abandonó los ambiciosos planes de fundición por ahora debido a los costos y el tiempo necesarios para construir una red, y planea en cambio enfocarse en los esfuerzos de diseño de chips internos, según las fuentes, que solicitaron el anonimato porque no estaban autorizadas a discutir asuntos privados.

La estrategia de la compañía destaca cómo la startup de Silicon Valley está aprovechando las asociaciones de la industria y una combinación de enfoques internos y externos para asegurar el suministro de chips y administrar los costos como los rivales más grandes Amazon, Meta, Google y Microsoft. Como uno de los mayores compradores de chips, la decisión de OpenAI de abastecerse de una amplia gama de fabricantes de chips mientras desarrolla el propio personalizado podría tener implicaciones más amplias en el sector tecnológico.

OpenAI, que ayudó a comercializar la IA generativa que produce respuestas similares a las humanas mediante consultas, depende de una potencia informática sustancial para entrenar y ejecutar sus sistemas. Como uno de los mayores compradores de unidades de procesamiento gráfico (GPU) de Nvidia, OpenAI utiliza chips de IA tanto para entrenar modelos donde aprende de los datos como para la inferencia, aplicando la herramienta para hacer predicciones o tomar decisiones basadas en nueva información.

La empresa ha estado trabajando durante meses con Broadcom para construir su primer chip de IA centrado en la inferencia, según las fuentes. La demanda en este momento es mayor para los chips de entrenamiento, pero los analistas predijeron que la necesidad de chips de inferencia podría superarlos a medida que se implementen más aplicaciones de IA.

Te recomendamos: Sierra, la startup del CEO de OpenAI, alcanza los 4,500 mdd en su última financiación

Aumento de la demanda de chips de IA lleva a tecnológicas a crear sus propias alternativas

Broadcom ayuda a empresas como Google, una unidad de Alphabet, a perfeccionar los diseños de chips para su fabricación y también suministra partes del diseño que ayudan a mover información dentro y fuera de los chips rápidamente. Esto es importante en los sistemas de IA donde decenas de miles de chips se conectan para trabajar en conjunto.

OpenAI todavía está determinando si desarrollar o adquirir otros elementos para el diseño de su chip y puede contratar socios adicionales, según dos de las fuentes.

La compañía reunió un equipo de chips de unas 20 personas, dirigido por los mejores ingenieros que han construido anteriormente unidades de procesamiento tensor (TPU) en Google, incluidos Thomas Norrie y Richard Ho.

Las fuentes dijeron que a través de Broadcom, OpenAI aseguró la capacidad de fabricación con Taiwan a través de Semiconductor Manufacturing Company para fabricar su primer chip de diseño personalizado en 2026.

Actualmente, las GPU de Nvidia tienen más del 80% de la participación de mercado. Pero la escasez y el aumento de los costos han llevado a clientes importantes como Microsoft, Meta y ahora OpenAI a explorar alternativas internas o externas.

El uso planificado de chips AMD por parte de OpenAI a través de Azure de Microsoft muestra cómo los nuevos chips MI300X de AMD están tratando de ganar una porción del mercado dominado por Nvidia. AMD ha proyectado 4.5 mil millones de dólares en ventas de chips de IA en 2024, luego del lanzamiento del chip en el cuarto trimestre de 2023.

El entrenamiento de modelos de IA y los servicios operativos como ChatGPT son costosos. OpenAI ha proyectado una pérdida de 5,000 millones de dólares este año sobre 3.7 mil millones en ingresos, según las fuentes. Los costos de cómputo, o los gastos de hardware, electricidad y servicios en la nube necesarios para procesar grandes conjuntos de datos y desarrollar modelos, son el mayor gasto de la empresa, lo que impulsa los esfuerzos para optimizar la utilización y diversificar a los proveedores.

OpenAI ha sido cauteloso a la hora de captar talento de Nvidia porque quiere mantener una buena relación con el fabricante de chips con el que sigue comprometido a trabajar, especialmente para acceder a su nueva generación de chips Blackwell, añadieron las fuentes.

Con información de Reuters

Síguenos en Google Noticias para mantenerte siempre informado

OpenAI colabora con Broadcom y TSMC para crear su primer chip y ajusta su estrategia de fundición
Forbes Staff