Hace unos días, se anunció la intención de fusionar SpaceX y xAI, de Elon Musk, como parte de un proyecto de un desarrollo de centros de datos orbitales alimentados por energía solar, capaces de realizar cómputo masivo de inteligencia artificial (IA). La iniciativa se enmarca en la antesala de la salida a bolsa prevista por SpaceX, que ya presentó una solicitud ante la Comisión Federal de Comunicaciones de Estados Unidos para desplegar y operar una constelación de hasta un millón de satélites, lo que abre el debate sobre los desafíos técnicos de llevar esta infraestructura al espacio.
Pero Musk no sería el único. En noviembre, Google anunció Project Suncatcher, una constelación de satélites con chips especializados en IA (TPUs) que funcionarían como un data center distribuido en órbita, con el lanzamiento de dos prototipos proyectados para comienzos de 2027. A ellos se suman startups como Starcloud, que ya logró entrenar y ejecutar un modelo de lenguaje en el espacio.
El interés por esta infraestructura emerge en un contexto de fuerte presión energética. Según Hanwha Data Centers, un solo rack especializado en IA requiere entre 50 y 150 kilowatts (KW), esto es, entre tres y cinco veces más potencia por metro cuadrado que en un data center tradicional. A ello se suma que los procesadores de IA de próxima generación proyectan consumos superiores a 1,4 KW por chip, elevando aún más las exigencias de energía y enfriamiento.
El presidente de la Asociación Chilena de Data Centers (Chile Data Centers), Francisco Basoalto, señaló que la idea de llevar centros de datos a la órbita terrestre está en una fase “extremadamente experimental”. Dijo que, si bien la conectividad satelital ha mostrado avances relevantes, uno de los principales cuellos de botella sigue siendo la energía.
Explicó que para generar un megawatt (MW) -mil kilowatts- de energía solar en la Tierra, se requiere del orden de una hectárea de paneles solares, por lo que según Basoalto, traducir esa lógica a la órbita implicaría desplegar superficies de paneles muy extensas y altos costos de lanzamiento.
“Son varias hectáreas de paneles solares que hay que llevar al espacio y eso es gigante en cuanto al peso. Una vez instalados allá, la problemática desaparece, pero el costo de llevarlos es muchísimo. Aunque esto tiene la ventaja de recibir la energía del sol las 24 horas a diferencia de la Tierra, igual se requieren superficies enormes”, afirmó.
En esa línea, el socio de Consultoría en Inteligencia Artificial y Datos de EY, Patricio Cofré, dijo que esto también requeriría enviar muchas unidades de cómputo al espacio, lo que representaría un costo “del orden de US$ 2 mil a
US$ 3 mil por kilo, una inversión súper importante”. Además, indicó que para poder escalar esta tecnología se deberán aumentar los niveles de conectividad y latencia.
Dificultades
Según Basoalto, otro desafío es la disipación térmica, debido a la falta de convección y conducción del calor en el espacio, lo que implica que el enfriamiento se realice a través de radiadores.
“Para poder disipar un kilowatt necesitas como tres metros cuadrados de radiadores. Si hablamos de una hectárea de paneles solares para generar un megawatt, sería un tercio de hectárea adicional para disipar ese calor vía radiación. Probablemente la tecnología va a evolucionar, pero con lo que existe hoy es súper complejo”, señaló.
En tanto, Cofré indicó que el entorno espacial obliga a repensar la resiliencia del hardware, debido a la exposición a radiación cósmica y a la imposibilidad de intervenir físicamente los equipos ante fallas. Dijo que una de las formas de abordar el problema es con mayores niveles de “redundancia”, es decir, ejecutar el mismo cálculo varias veces en distintos satélites para comparar resultados y evitar errores, replicando los procesos de manera simultánea.
“También se está trabajando en una nueva electrónica no basada en silicio y que eventualmente sería tolerante a altas radiaciones (...) Pero, con la tecnología actual habrían ciertas limitaciones, lo que la restringe a ciertos casos de uso. Probablemente por ahora no podemos pensar en tiempo real exhaustivo, pero sí cargas batch -procesamiento por lotes-, como por ejemplo, en tareas de procesamiento de imágenes faciales”, comentó.
Oportunidades
Según Cofré, las oportunidades más claras en el corto plazo están asociadas al procesamiento de datos que se generan en el propio espacio –como imágenes satelitales- y dijo que, en una primera etapa, este modelo no apunta a reemplazar la infraestructura terrestre, sino a complementarla como una nueva capa de cómputo, especialmente para cargas de trabajo que no requieren respuesta inmediata.
Sin embargo, advirtió que el desarrollo de data centers orbitales también abre interrogantes en materia de soberanía, jurisdicción y gobernanza de datos, aspectos que aún no están resueltos a nivel internacional.
“Se cree que en el futuro esto podría ser una solución competitiva si proyectamos esto al 2035, pero eso va a depender del nivel de demanda de cómputo que tengamos, que todavía no logramos ni siquiera imaginarla”, añadió Cofré.