Las acciones de Nvidia Corp. cayeron tras un reporte de que Meta Platforms Inc. está en conversaciones para gastar US$ miles de millones en chips de inteligencia artificial (IA) de Google, lo que sugiere que el líder de las búsquedas en internet avanza en sus esfuerzos por competir con el principal acelerador de IA del sector.
Meta mantiene conversaciones para usar los chips de Google —conocidos como unidades de procesamiento tensorial, o TPU— en centros de datos en 2027, informó The Information, citando a una persona familiarizada con las negociaciones. Meta también podría alquilar chips de la división de nube de Google el próximo año, según el medio.
Un acuerdo ayudaría a consolidar a las TPU como una alternativa a los chips de Nvidia, el mejor estándar para grandes tecnológicas y startups como Meta y OpenAI que necesitan potencia informática para desarrollar y ejecutar plataformas de inteligencia artificial.
Las acciones de Nvidia retrocedieron hasta 3% en las operaciones previas a la apertura del mercado el martes. El propietario de Google, Alphabet Inc., subió 2,4%, ampliando el reciente repunte del optimismo por la última versión de su modelo de IA Gemini.
Google selló anteriormente un acuerdo para suministrar hasta un millón de sus chips a Anthropic PBC, lo que llamó la atención sobre los posibles desafíos a largo plazo para la posición dominante de Nvidia en el mercado.
Tras anunciarse el acuerdo con Anthropic, el analista de Seaport Jay Goldberg lo calificó como una “validación realmente poderosa” para las TPU. “Muchas personas ya estaban pensando en ello, y muchas más probablemente lo están considerando ahora”, afirmó.
Representantes de Meta declinaron hacer comentarios, mientras que Google no respondió de inmediato a las solicitudes.
Lo que dice Bloomberg Intelligence
El posible uso de las TPU de Google por parte de Meta, que ya emplea Anthropic, muestra que los proveedores externos de modelos de lenguaje de gran tamaño probablemente aprovecharán a Google como un segundo suministrador de chips aceleradores para inferencia en el corto plazo.
Según los analistas de Bloomberg Intelligence, Mandeep Singh y Robert Biggar, se calcula que el gasto de capital de Meta, de al menos US$ 100 mil millones para 2026, sugiere que destinará al menos US$ 40.000-50.000 millones a capacidad de chips de inferencia el próximo año. El consumo y el crecimiento de pedidos pendientes en Google Cloud podrían acelerarse frente a otros grandes proveedores debido a la demanda de clientes empresariales que buscan usar TPU y modelos Gemini en la nube de Google.
Las acciones asiáticas vinculadas a Alphabet se dispararon en las operaciones del martes. En Corea del Sur, IsuPetasys Co., proveedora de placas multicapa para Alphabet, saltó 18% hasta un récord intradía. En Taiwán, las acciones de MediaTek Inc. subieron casi 5%.
Un acuerdo con Meta —uno de los mayores inversores globales en centros de datos y desarrollo de IA— sería una victoria para Google. Pero mucho dependerá de si los chips tensoriales logran demostrar la eficiencia energética y la capacidad informática necesarias para consolidarse como una opción viable a largo plazo.
Los chips tensoriales —desarrollados hace más de diez años especialmente para tareas de inteligencia artificial— está ganando impulso fuera de su empresa matriz como una forma de entrenar y ejecutar modelos de IA complejos. Su atractivo como alternativa ha crecido en un momento en que las compañías buscan reducir la dependencia de Nvidia, en un mercado donde incluso Advanced Micro Devices Inc. sigue rezagada.
Las unidades de procesamiento gráfico, o GPU, el segmento del mercado dominado por Nvidia, fueron creadas para acelerar el renderizado de gráficos —principalmente en videojuegos y aplicaciones visuales—, pero resultaron ideales para entrenar modelos de IA porque pueden manejar grandes volúmenes de datos y cálculos. Las TPU, en cambio, son un tipo de circuito integrado de aplicación específica, o microchip diseñado para una tarea determinada.
Los chips tensoriales también fueron adaptados como aceleradores para tareas de IA y aprendizaje automático en las propias aplicaciones de Google. Dado que Google y su unidad DeepMind desarrollan modelos de IA de vanguardia como Gemini, la compañía ha podido transferir las lecciones aprendidas de esos equipos a los diseñadores de chips. Al mismo tiempo, la posibilidad de personalizar los chips ha beneficiado a los equipos de inteligencia artificial.