Expertos analizan los desafíos de llevar los data centers a la órbita terrestre
La energía, la disipación térmica, la radiación y los costos de lanzamiento aparecen como los principales límites para escalar esta infraestructura fuera del planeta, pese al creciente interés de grandes tecnológicas y startups.
Por: Marco Zecchetto
Publicado: Martes 3 de febrero de 2026 a las 04:00 hrs.
Noticias destacadas
Hace unos días, se anunció la intención de fusionar SpaceX y xAI, de Elon Musk, como parte de un proyecto de un desarrollo de centros de datos orbitales alimentados por energía solar, capaces de realizar cómputo masivo de inteligencia artificial (IA). La iniciativa se enmarca en la antesala de la salida a bolsa prevista por SpaceX, que ya presentó una solicitud ante la Comisión Federal de Comunicaciones de Estados Unidos para desplegar y operar una constelación de hasta un millón de satélites, lo que abre el debate sobre los desafíos técnicos de llevar esta infraestructura al espacio.
Pero Musk no sería el único. En noviembre, Google anunció Project Suncatcher, una constelación de satélites con chips especializados en IA (TPUs) que funcionarían como un data center distribuido en órbita, con el lanzamiento de dos prototipos proyectados para comienzos de 2027. A ellos se suman startups como Starcloud, que ya logró entrenar y ejecutar un modelo de lenguaje en el espacio.
El interés por esta infraestructura emerge en un contexto de fuerte presión energética. Según Hanwha Data Centers, un solo rack especializado en IA requiere entre 50 y 150 kilowatts (KW), esto es, entre tres y cinco veces más potencia por metro cuadrado que en un data center tradicional. A ello se suma que los procesadores de IA de próxima generación proyectan consumos superiores a 1,4 KW por chip, elevando aún más las exigencias de energía y enfriamiento.
El presidente de la Asociación Chilena de Data Centers (Chile Data Centers), Francisco Basoalto, señaló que la idea de llevar centros de datos a la órbita terrestre está en una fase “extremadamente experimental”. Dijo que, si bien la conectividad satelital ha mostrado avances relevantes, uno de los principales cuellos de botella sigue siendo la energía.
Explicó que para generar un megawatt (MW) -mil kilowatts- de energía solar en la Tierra, se requiere del orden de una hectárea de paneles solares, por lo que según Basoalto, traducir esa lógica a la órbita implicaría desplegar superficies de paneles muy extensas y altos costos de lanzamiento.
“Son varias hectáreas de paneles solares que hay que llevar al espacio y eso es gigante en cuanto al peso. Una vez instalados allá, la problemática desaparece, pero el costo de llevarlos es muchísimo. Aunque esto tiene la ventaja de recibir la energía del sol las 24 horas a diferencia de la Tierra, igual se requieren superficies enormes”, afirmó.
En esa línea, el socio de Consultoría en Inteligencia Artificial y Datos de EY, Patricio Cofré, dijo que esto también requeriría enviar muchas unidades de cómputo al espacio, lo que representaría un costo “del orden de US$ 2 mil a
US$ 3 mil por kilo, una inversión súper importante”. Además, indicó que para poder escalar esta tecnología se deberán aumentar los niveles de conectividad y latencia.
Dificultades
Según Basoalto, otro desafío es la disipación térmica, debido a la falta de convección y conducción del calor en el espacio, lo que implica que el enfriamiento se realice a través de radiadores.
“Para poder disipar un kilowatt necesitas como tres metros cuadrados de radiadores. Si hablamos de una hectárea de paneles solares para generar un megawatt, sería un tercio de hectárea adicional para disipar ese calor vía radiación. Probablemente la tecnología va a evolucionar, pero con lo que existe hoy es súper complejo”, señaló.
En tanto, Cofré indicó que el entorno espacial obliga a repensar la resiliencia del hardware, debido a la exposición a radiación cósmica y a la imposibilidad de intervenir físicamente los equipos ante fallas. Dijo que una de las formas de abordar el problema es con mayores niveles de “redundancia”, es decir, ejecutar el mismo cálculo varias veces en distintos satélites para comparar resultados y evitar errores, replicando los procesos de manera simultánea.
“También se está trabajando en una nueva electrónica no basada en silicio y que eventualmente sería tolerante a altas radiaciones (...) Pero, con la tecnología actual habrían ciertas limitaciones, lo que la restringe a ciertos casos de uso. Probablemente por ahora no podemos pensar en tiempo real exhaustivo, pero sí cargas batch -procesamiento por lotes-, como por ejemplo, en tareas de procesamiento de imágenes faciales”, comentó.
Oportunidades
Según Cofré, las oportunidades más claras en el corto plazo están asociadas al procesamiento de datos que se generan en el propio espacio –como imágenes satelitales- y dijo que, en una primera etapa, este modelo no apunta a reemplazar la infraestructura terrestre, sino a complementarla como una nueva capa de cómputo, especialmente para cargas de trabajo que no requieren respuesta inmediata.
Sin embargo, advirtió que el desarrollo de data centers orbitales también abre interrogantes en materia de soberanía, jurisdicción y gobernanza de datos, aspectos que aún no están resueltos a nivel internacional.
“Se cree que en el futuro esto podría ser una solución competitiva si proyectamos esto al 2035, pero eso va a depender del nivel de demanda de cómputo que tengamos, que todavía no logramos ni siquiera imaginarla”, añadió Cofré.
Te recomendamos
ARTICULOS RELACIONADOS
Newsletters
LO MÁS LEÍDO
Martín Acero, socio director de PPU: “El desafío de la firma es la transición generacional”
El socio director del estudio de abogados iberoamericano señaló que en el transcurso de los próximos cinco años se verá un cambio importante en los liderazgos de la organización, para el cual están preparándose.
WaterMind, startup que detecta floraciones de algas nocivas, ganó la primera edición del Salmon MAS Pitch
La firma chilena, que desarrolló una plataforma con inteligencia artificial para detectar riesgos antes de que lleguen al centro de cultivo, ganó la competencia de pitch organizada por DF MAS.
Urbani, la inmobiliaria con la mayor cartera de proyectos del sur, critica restricciones en planes reguladores de zonas céntricas que fomentan desdensificación
La empresa de Concepción, especializada en el desarrollo de proyectos para mandantes, argumenta que esta política desplaza a las familias hacia la periferia, aumenta los costos de transporte y la contaminación, y va contra la lógica de las ciudades inteligentes que deberían tender a concentrar los servicios.
40 horas: la mirada de los expertos sobre los nuevos dictámenes de la Dirección del Trabajo
Este jueves, el servicio liberó dos pronunciamientos nuevos y que dicen relación con dos materias: los trabajadores excluidos del control de jornada y la implementación de la rebaja de 44 a 42 horas.
Carlos Kubick e inconsistencias en estados financieros de la Clínica Las Condes: "Aquí hay presunción de dolo, no solamente de equivocaciones"
El presidente de la firma sostuvo que están optimistas con la situación operativa y financiera para 2026. Planteó que la clínica estaba sobredimensionada y que han logrado reducir la estructura a una más liviana y eficiente.
BRANDED CONTENT
En “Es el momento”, el rider del Team Santander abre su historia y recorre el camino que lo llevó a la élite del ciclismo de montaña
Y como parte de esta conversación, extiende una invitación abierta a toda la comunidad a ser parte de un gran evento llamado “Desafío Gran Santiago y Cicletada Familiar ”
Dra Susan Bueno y el impulso que la mueve a avanzar, investigar y aportar a la sociedad.
Su curiosidad temprana la llevó a estudiar las enfermedades infecciosas y a contribuir en el desarrollo de la primera vacuna aplicada masivamente en Chile contra el Covid-19. Hoy, la Dra. Susan Bueno, reconocida en 2024 como inventora del año, continúa aportando desde la investigación al fortalecimiento de la salud. Mira aquí su entrevista
Instagram
Facebook
LinkedIn
YouTube
TikTok