Meta está en conversaciones para gastar miles de millones en los chips de inteligencia artificial (IA) de Google, reportó The Information, lo que se suma a un repunte bursátil de meses a medida que el gigante de las búsquedas ha planteado que puede rivalizar con Nvidia como líder en tecnología de inteligencia artificial.
El acuerdo en cuestión señalaría un impulso creciente para los chips de Google y su potencial de largo plazo para desafiar el dominio de mercado de Nvidia, después de que la compañía acordó previamente suministrar hasta 1 millón de chips a Anthropic PBC.
Meta está en conversaciones para usar los chips de Google -conocidos como tensor processing units, o TPUs- en data centers en 2027, reportó el medio, citando a una persona no identificada familiarizada con las conversaciones. Meta también podría arrendar chips a la división de cloud de Google el próximo año, indicó.
Un acuerdo ayudaría a establecer las TPUs como una alternativa a los chips de Nvidia, el estándar de oro para big tech y startups desde Meta hasta OpenAI, que necesitan capacidad de cómputo para desarrollar y ejecutar plataformas de inteligencia artificial.
Aunque la acción de Alphabet, matriz de Google, subía un leve 0,6% este miércoles en medio de los trascendidos, los papeles de Nvidia caían en torno a 4% en Wall Street en la jornada.
Alcances del posible acuerdo
De concretarse el pacto con Meta, se sumaría al reciente anunció de un acuerdo entre Alphabet y Anthropic, el cual fue calificado por el analista de Seaport, Jay Goldberg, como una “validación realmente poderosa” para las TPUs. “Mucha gente ya estaba pensando en esto, y probablemente mucha más gente lo está considerando ahora”, dijo.
“Google Cloud está experimentando una demanda acelerada tanto por nuestras TPUs personalizadas como por las GPUs de Nvidia; estamos comprometidos a respaldar ambas, como lo hemos hecho por años”, señaló un vocero de Google.
Desde Bloomberg Intelligence plantean que el probable uso por parte de Meta de las TPUs de Google, que ya son utilizadas por Anthropic, muestra que los proveedores externos de lenguaje de modelo grande (LLM, su sigla en inglés) probablemente recurrirán a Google como abastecedor secundario de chips aceleradores para inferencia en el corto plazo.
El capex de Meta de al menos US$ 100 mil millones para 2026 sugiere que gastará al menos US$ 40 mil millones-US$ 50 mil millones en capacidad de chips de inferencia el próximo año, calculan en Blommberg Intelligence. El consumo y el crecimiento de la cartera de proyectos de Google Cloud podrían acelerarse frente a otros hiperescaladores y pares neo-cloud debido a la demanda de clientes corporativos que buscan consumir TPUs y modelos Gemini en Google Cloud, agregan.
Un acuerdo con Meta -uno de los mayores gastadores a nivel global en data centers y desarrollo de IA- marcaría una victoria para Google. Pero mucho depende de que los chips tensoriales demuestren la eficiencia energética y la potencia de cómputo necesarias para convertirse en una opción viable a largo plazo.
Los TPUs de Google
Desarrollado por primera vez hace más de 10 años especialmente para tareas de inteligencia artificial, el chip tensorial de Alphabet está ganando impulso fuera de su compañía de origen como una forma de entrenar y ejecutar modelos complejos de IA.
Su atractivo como alternativa ha crecido en un momento en que empresas de todo el mundo se preocupan por una dependencia excesiva de Nvidia, en un mercado donde incluso Advanced Micro Devices (AMD) es un distante segundo lugar.
Los graphics processing units (GPUs), la parte del mercado de chips dominada por Nvidia, fueron creados para acelerar el renderizado de gráficos —principalmente en videojuegos y otras aplicaciones de efectos visuales—, pero resultaron ser muy adecuados para entrenar modelos de IA porque pueden manejar grandes volúmenes de datos y cálculos. Las TPUs, en cambio, son un tipo de producto especializado conocido como application-specific integrated circuits, o microchips diseñados para un propósito específico.
Los chips tensoriales también fueron adaptados como aceleradores para tareas de IA y machine learning en las propias aplicaciones de Google. Debido a que Google y su unidad DeepMind desarrollan modelos de IA de vanguardia como Gemini, la compañía ha podido llevar aprendizajes de esos equipos de vuelta a los diseñadores de chips. Al mismo tiempo, la capacidad de personalizar los chips ha beneficiado a los equipos de IA.