El ecosistema de la inteligencia artificial (IA) acapara la atención de los medios y analistas del sector tecnológico. Las cumbres políticas de alto nivel, los esfuerzos regulatorios para embridar su despliegue al servicio del bienestar, las impactantes aplicaciones sectoriales, su progresiva incorporación a los productos de consumo y, como no, las infraestructuras digitales necesarias para el soporte servicios IA en la nube. En el centro de estas últimas están los denominados chips IA, un tipo de producto complejo dentro de la cadena de suministro de los semiconductores, en el que se ha de combinar de modo óptimo diversos componentes y actuaciones (chips lógicos, chips de memoria, empaquetado avanzado).

Por la naturaleza del producto, el desarrollo de chips IA es un mercado abierto, basado en la fabricación por terceros y dependiente de la calidad del diseño que realicen las empresas que los comercializan. No obstante, existe en estos momentos una gran dominante en el segmento: Nvidia. Se estima que en el segundo y tercer trimestre de 2023 Nvidia sirvió más de 800.000 muestras de su producto estrella para IA, la GPU H100, por un valor cercano a los 25.000 millones de dólares, lo que supone haber cuadriplicado las ventas respecto del mismo periodo de 2022. Si atendemos a la previsión de ventas de servidores con chips IA para 2024, la compañía multiplicará durante el presente año por más de ocho las ventas de AMD, su más inmediato competidor en este ámbito.

En definitiva, Nvidia goza de una envidiable posición en el presente inmediato, pero se enfrenta a retos a medio plazo en sus principales mercados.

Los chips IA se han convertido en un elemento clave en la batalla entre las grandes tecnológicas y de las reservas de este insumo dependerá el ágil despliegue de su nueva generación de servicios. La excesiva posición de dominio de Nvidia, cuya GPU H100 tiene un precio de más de 40.000 dólares en eBay, puede estar causando una espiral de costes a sus clientes. Los analistas del Bank of America predicen que el gasto de capital conjunto de Amazon, Alphabet y Microsoft relacionado con la nube se incrementará un 22% en 2024, hasta los 116.000 millones de dólares. Meta, por su parte, ha elevado sus previsiones iniciales de gastos de capital en infraestructura de centros de datos para 2024 en 2.000 millones de dólares hasta 37.000 millones.

No acostumbradas a la dependencia de un tercero, las grandes tecnológicas buscan alternativas para reducir el poder de mercado de Nvidia. En los últimos meses, Microsoft, Google y Meta han anunciado el desarrollo de sus propios chips IA para desplegar en paralelo con los productos de Nvidia. Los chips propietarios de las grandes tecnológicas están más adaptados a sus respectivos servicios, reduciendo no solo los gastos de capital sino también en consumo eléctrico. Es fácil adivinar, también, la satisfacción de los gigantes digitales por los esfuerzos de Sam Altman, CEO de OpenAI, por impulsar una cadena de producción específica para el suministro de chips IA, que ya cuenta con un apoyo financiero entre 8.000 y 10.000 millones de dólares aportados por G42, fondo inversor establecido en Abu-Dhabi.

La situación de Nvidia en el mercado chino es compleja. Las sanciones estadounidenses sobre chips de arquitectura avanzada le impide satisfacer la demanda latente de sus mejores productos. Cualquier movimiento de la empresa de chips destinada al mercado de la potencia asiática es tutelado por el Gobierno de Estados Unidos. Dentro de estos límites, la GPU H20 de Nvidia comenzará a ser vendida en China. Es difícil que ello le permita mantener la cuota del 90% sobre los chips IA que tenía allí antes de octubre de 2022. Las grandes tecnológicas chinas han comenzado a migrar hacia las GPU equivalentes ya suministradas por Huawei. También los fabricantes de chips chinos estarán pronto en disposición de suministrar componentes avanzados lógicos y de memoria que permitirán al gigante de las telecomunicaciones comercializar productos más potentes que la GPU H20.

Aunque con actuaciones de menor calado, Europa tampoco permanece impasible ante la dependencia de Nvidia para el despliegue de sus infraestructuras de IA, ya que limita su autonomía estratégica. El consorcio European Processor Initiative, financiado por la Unión Europea desde 2019, tiene entre sus objetivos el desarrollo de chips IA para la red de supercomputación europea. La Comisión Europea ya ha anunciado que dará continuidad a esta iniciativa dentro del recientemente presentado paquete de innovación para apoyar la IA en Europa.

Hoy Nvidia presentará sus resultados de 2023, que sin duda serán excepcionales. También es de esperar que anuncie una previsión de crecimiento sustancial de ventas y beneficios para el año 2024. Los inversores, sin embargo, pudieran tener también preguntas para Nvidia sobre el medio plazo. En Estados Unidos, cómo va a convencer a sus principales clientes que no internalicen la producción de chips IA y cómo haría frente a un eventual competidor que erosione sus márgenes. En China, cómo navegará el conflicto geopolítico para mantener una cuota de ventas relevante de chips IA. En Europa, qué contrapartida le proporcionará al viejo continente para garantizar su autonomía digital estratégica. También de la respuesta a estos retos en el medio plazo, y no solo de logros recientes y perspectivas inmediatas, dependerá la reacción de los mercados.

Emilio García García es exdirector de Gabinete de la Secretaría de Estado de Telecomunicaciones y colaborador en Agenda Pública

Sigue toda la información de Cinco Días en Facebook, X y Linkedin, o en nuestra newsletter Agenda de Cinco Días

QOSHE - Los desafíos a la hegemonía de Nvidia en los chips IA - Emilio García García
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Los desafíos a la hegemonía de Nvidia en los chips IA

4 0
21.03.2024

El ecosistema de la inteligencia artificial (IA) acapara la atención de los medios y analistas del sector tecnológico. Las cumbres políticas de alto nivel, los esfuerzos regulatorios para embridar su despliegue al servicio del bienestar, las impactantes aplicaciones sectoriales, su progresiva incorporación a los productos de consumo y, como no, las infraestructuras digitales necesarias para el soporte servicios IA en la nube. En el centro de estas últimas están los denominados chips IA, un tipo de producto complejo dentro de la cadena de suministro de los semiconductores, en el que se ha de combinar de modo óptimo diversos componentes y actuaciones (chips lógicos, chips de memoria, empaquetado avanzado).

Por la naturaleza del producto, el desarrollo de chips IA es un mercado abierto, basado en la fabricación por terceros y dependiente de la calidad del diseño que realicen las empresas que los comercializan. No obstante, existe en estos momentos una gran dominante en el segmento: Nvidia. Se estima que en el segundo y tercer trimestre de 2023 Nvidia sirvió más de 800.000 muestras de su producto estrella para IA, la GPU H100, por un valor cercano a los 25.000 millones de dólares, lo que supone haber cuadriplicado las ventas respecto del mismo periodo de 2022. Si atendemos a la previsión de ventas de servidores con chips IA para 2024, la compañía multiplicará durante el presente año por más de ocho las ventas de AMD, su más inmediato........

© Cinco Días


Get it on Google Play