
OpenAI, una de las nuevas empresas de inteligencia artificial mejor financiadas, está considerando fabricar sus propios chips de inteligencia artificial.
Según Reuters, las discusiones dentro de la empresa sobre las estrategias de chips de IA han estado en curso durante al menos el año pasado, a medida que empeora la escasez de chips para entrenar modelos de IA. Se dice que OpenAI está considerando una serie de estrategias para avanzar en sus ambiciones de chips, incluida la adquisición de un fabricante de chips de IA o intentar diseñar los chips internamente.
El director ejecutivo de OpenAI, Sam Altman, ha hecho de la adquisición de más chips de IA una prioridad para la empresa, informó Reuters.
Actualmente, OpenAI, como la mayoría de sus competidores, se basa en hardware basado en GPU para desarrollar modelos como ChatGPT, GPT-4 y DALL-E 3. La capacidad de las GPU para realizar muchos cálculos en paralelo es muy adecuada para la formación actual. capaz de IA
Pero el auge de la IA creativa (un gran éxito para los fabricantes de GPU como Nvidia) ha reducido drásticamente la cadena de suministro de GPU. Microsoft tiene una escasez tan grave del hardware de servidor necesario para ejecutar la IA que podría interrumpir el servicio, advirtió la compañía en un informe de ganancias de verano. Y se dice que los mejores procesadores de inteligencia artificial de Nvidia estarán a la venta hasta 2024.
Las GPU también son esenciales para ejecutar y dar servicio a los modelos de OpenAI; la empresa confía en clústeres de GPU en la nube para las cargas de trabajo de los clientes. Pero tienen un costo enorme.
Un estudio realizado por la analista de Bernstein, Stacy Rasgon, encontró que si las consultas de ChatGPT crecieran a una décima parte de la escala de la Búsqueda de Google, se necesitarían aproximadamente $48,1 mil millones en GPU inicialmente y alrededor de $16 mil millones al año para mantenerlo en funcionamiento.
OpenAI no sería el primero en intentar crear sus propios chips de IA.
Google tiene un procesador, el TPU («unidad de procesamiento tensorial»), para entrenar grandes sistemas creativos de IA como PaLM-2 e Imagen. Amazon proporciona chips patentados a los clientes de AWS tanto para capacitación (Trainium) como para inferencia (Inferentia). Y, según se informa, Microsoft está trabajando con AMD para desarrollar un chip interno de IA llamado Athena, que se dice que está siendo probado por OpenAI.
Sin duda, OpenAI se encuentra en una posición sólida para invertir fuertemente en I+D. La empresa, que ha recaudado más de 11.000 millones de dólares en capital de riesgo, tiene alrededor de 1.000 millones de dólares en ingresos. Y está considerando una venta de acciones que aumentaría su valoración en el mercado secundario a 90 mil millones de dólares, según un informe reciente del Wall Street Journal.
Pero el hardware es un negocio implacable, especialmente los chips de IA.
El año pasado, el fabricante de chips de IA Graphcore, cuya valoración supuestamente se redujo en mil millones de dólares después de que fracasara un acuerdo con Microsoft, dijo que planeaba recortar empleos debido a un entorno macroeconómico «muy desafiante». (La situación se ha visto exacerbada por la disminución de los ingresos de Graphcore y el aumento de las pérdidas en los últimos meses). Mientras tanto, Habana Labs, una empresa de chips de IA propiedad de Intel, despidió aproximadamente al 10% de su fuerza laboral. Y los esfuerzos de Meta por crear chips de IA personalizados han estado plagados de problemas, lo que ha llevado a la empresa a abandonar parte de su hardware experimental.
Aunque OpenAI se ha comprometido a lanzar al mercado un chip personalizado, el esfuerzo podría llevar años y costar cientos de millones de dólares al año. Queda por ver si los inversores de la startup, entre ellos Microsoft, están dispuestos a asumir una apuesta tan arriesgada.