OpenAI desarrolla su propio chip para reducir la dependencia de Nvidia

OpenAI, la organización detrás de ChatGPT y otras herramientas avanzadas de inteligencia artificial, está logrando avances significativos en sus esfuerzos por reducir su dependencia de Nvidia mediante el desarrollo de su primer chip de inteligencia artificial interno.

Según la fuente, OpenAI está finalizando el diseño de su procesador de IA de primera generación, que se espera que sea enviado a fabricación en los próximos meses en Taiwan Semiconductor Manufacturing Company (TSMC).

El proceso, conocido como “taping out”, marca un hito crítico en el desarrollo de chips. Si todo va según lo planeado, OpenAI pretende comenzar la producción en masa en 2026.

Sin embargo, no hay certeza de que el chip funcione perfectamente en el primer intento, ya que cualquier error podría requerir costosos rediseños y etapas adicionales de grabación.

La decisión de desarrollar chips personalizados se considera estratégica para OpenAI, ya que le da a la compañía una mayor influencia de negociación con los proveedores de chips existentes como Nvidia, que actualmente domina el mercado de chips de IA con una participación del 80%.

Esfuerzos similares de gigantes tecnológicos como Microsoft y Meta han enfrentado desafíos, lo que pone de relieve la complejidad del diseño de chips personalizados.

El equipo interno de OpenAI, dirigido por Richard Ho, ha crecido rápidamente y se ha duplicado hasta alcanzar los 40 ingenieros en los últimos meses. Ho, que anteriormente trabajó en los chips de IA personalizados de Google, encabeza la iniciativa en colaboración con Broadcom.

Los informes sugieren que diseñar e implementar un chip de alto rendimiento de esta magnitud podría costarle a la empresa más de 500 millones de dólares, y se requerirían inversiones adicionales para el software y la infraestructura que lo acompañan.

Funciones e implementación del chip

El nuevo chip aprovechará el proceso de fabricación de 3 nanómetros de vanguardia de TSMC, incorporando memoria avanzada de gran ancho de banda (HBM) y una arquitectura de matriz sistólica, características que se encuentran comúnmente en los chips de Nvidia.

A pesar de su potencial, el despliegue inicial del chip probablemente se limitará a ejecutar modelos de IA en lugar de entrenarlos.

Si bien el desarrollo de chips personalizados es un paso ambicioso, OpenAI puede tardar años en igualar la escala y la sofisticación de los programas de chips administrados por Google y Amazon.

Ampliar tales esfuerzos requeriría que el líder en IA aumentara significativamente su fuerza laboral de ingeniería.

La demanda de chips de IA sigue aumentando a medida que los modelos de IA generativa se vuelven cada vez más complejos.

Las organizaciones, incluidas OpenAI, Google y Meta, requieren una potencia informática masiva para operar estos modelos, lo que genera una necesidad “insaciable” de chips. En respuesta, las empresas están invirtiendo fuertemente en infraestructura de IA.

Meta ha asignado 60 mil millones de dólares para el desarrollo de la IA en 2025, mientras que Microsoft gastará 80 mil millones de dólares el mismo año.

La decisión de OpenAI de desarrollar su silicio refleja una tendencia en toda la industria de reducir la dependencia de proveedores dominantes como Nvidia.

Aunque todavía se encuentra en sus primeras etapas, la iniciativa interna de chips de la compañía podría remodelar su panorama operativo, ofreciendo ahorros de costos, flexibilidad competitiva y mayor eficiencia a medida que continúa superando los límites de la innovación en IA.