Centros de datos en el espacio: ¿Una realidad para 2030?

El plan prevé dos prototipos en órbita a inicios de 2027 para capturar energía casi continua del sol.
Las grandes tecnológicas quieren construir centros de datos en el espacio

¿Qué pasó?

Alphabet presentó Project Suncatcher, un proyecto bastante innovador para estudiar constelaciones de satélites solares como una vía para colocar computadoras fuera de la Tierra. El plan prevé dos prototipos en órbita a inicios de 2027 para capturar energía casi continua del sol. En pruebas controladas, Google obtuvo resultados prometedores en términos de energía obtenida vs. costos de obtención. Su modelo sugiere que, en futuros lanzamientos, el precio podría caer para mediados de los 2030 y volver comparable el costo por kW/año con un data center terrestre.

En paralelo, NVIDIA confirmó que un H100 (su computadora de datos) volará este Noviembre a bordo del satélite Starcloud-1, marcando este como el debut de una GPU de clase data center en órbita; la empresa proyecta un centro orbital de 5 GW a largo plazo y sostiene que la energía en órbita sería hasta diez veces más barata, incluyendo el costo de lanzamiento.

¿Por qué ahora? 

La razón es bien mundana: falta de energía en tierra. El cuello de botella dejó de ser el silicio: Satya Nadella (CEO de Microsoft) dijo que tienen GPUs en inventario sin poder conectarlas por falta de capacidad eléctrica. Esta presión explica por qué consideran la órbita terrestre: sol continuo, no hay noche ni días nublados y, sobre todo, no existe la necesidad de enfriar constantemente los centros de datos, debido a la temperatura espacial.

¿Todo esto es viable?

En el espacio, la energía solar juega con otras reglas: en la órbita correcta, un panel puede generar hasta ocho veces más electricidad que uno instalado en la Tierra, lo que reduce la necesidad de baterías y hace más eficiente el suministro constante de energía. Para conectar esos satélites y “agrupar” los aceleradores de inteligencia artificial, se necesita una red de interconexión de enorme capacidad: hablamos de decenas de terabits por segundo entre equipos que orbitan a pocos cientos de metros de distancia. Google ya demostró en laboratorio una transmisión de 1.6 Tbps y planea usar formaciones de satélites muy próximas para alcanzar ese nivel de rendimiento.

La radiación espacial, sin embargo, sigue siendo una amenaza. El calor es otro enemigo silencioso: sin aire, no hay convección, así que todo depende de radiadores y materiales capaces de emitir calor en forma de radiación infrarroja. En este campo ya se están desarrollando radiadores desplegables y nuevos diseños para manejar temperaturas extremas.

Nada de esto sería posible sin una reducción drástica en los costos de lanzamiento, una condición indispensable. Google posee estimaciones optimistas, pero por ahora es solo una proyección. A ello se suma el desafío de la basura espacial: cada nuevo satélite aumenta el riesgo de colisiones y las quejas de los astrónomos, que comparan el cielo actual con un parabrisas lleno de insectos. Por eso, la Agencia Espacial Europea y varios expertos insisten en la necesidad de imponer reglas más estrictas y tecnologías de remoción activa para mantener el espacio utilizable y seguro.

Ventanas de oportunidad para inversión. 

El auge de los centros de datos espaciales está abriendo oportunidades en varios frentes tecnológicos. Uno de los más prometedores es el de las comunicaciones ópticas, donde las conexiones entre satélites se basan en haces láser en lugar de radiofrecuencia. Este tipo de enlaces permite transmitir enormes volúmenes de datos con menor latencia y sin interferencias. Empresas como Mynaric ya fabrican terminales láser capaces de mantener enlaces estables entre satélites que se mueven a decenas de miles de kilómetros por hora.

Otro campo crítico es la gestión térmica orbital. En ausencia de aire, disipar el calor es un problema complejo, y ahí entran los radiadores desplegables y los materiales emisivos diseñados para liberar energía en forma de radiación infrarroja. Firmas como Redwire, con su línea Q-Rad, están desarrollando soluciones de almacenamiento y transferencia térmica específicas para entornos espaciales, lo que las posiciona como actores clave en esta nueva infraestructura.

En paralelo, la expansión de la energía solar en órbita y el montaje de grandes estructuras implican avances en robótica. La NASA ya ha probado tecnologías como ROSA (Roll-Out Solar Array), mientras que empresas privadas desarrollan brazos robóticos y módulos de ensamblaje capaces de construir o reparar plataformas en pleno espacio.

La reducción del costo por kilo de lanzamiento sigue siendo la condición fundamental para que todo este ecosistema sea rentable. Los analistas observan con atención la curva descendente de precios impulsada por la reutilización de cohetes; alcanzar el umbral de menos de 200 dólares por kilogramo —proyectado para los años 2030— sería el punto de inflexión que haría viable la computación orbital a gran escala.

También emergen nichos financieros y de gestión de riesgo: las aseguradoras espaciales y las empresas dedicadas al seguimiento del tráfico orbital (SSA/STM) o a la remoción de desechos ganarán relevancia conforme se endurezcan las regulaciones internacionales impulsadas por organismos gubernamentales. Mantener el espacio libre de colisiones será tan importante como mantener los servidores en funcionamiento.

Finalmente, antes de que el “entrenamiento” de inteligencia artificial se traslade por completo al espacio, llegará una primera fase de cómputo en el borde orbital. Aquí los satélites procesarán datos directamente desde sus sensores —como imágenes de radar (SAR), monitoreo de incendios o misiones de rescate—, reduciendo el tiempo entre la observación y la acción. Empresas como Starcloud y NVIDIA ya están apostando por este modelo, que podría convertirse en el primer negocio rentable de la nueva era del cómputo fuera de la Tierra.