Durante años, los centros de datos crecieron discretamente, ocultos tras vallas industriales y edificios anónimos. Ahora se encuentran con límites muy reales. Las redes eléctricas están sobrecargadas, el agua para refrigeración escasea y las comunidades se resisten a la instalación de nuevas granjas de servidores. Al mismo tiempo, los modelos de IA son cada vez más grandes, más exigentes y más difíciles de mantener. En este contexto, una idea que antes parecía ciencia ficción empieza a parecer extrañamente práctica. Si la Tierra se está quedando sin espacio y energía para la computación, quizá el próximo lugar al que recurrir sea la órbita.
¿Por qué el espacio? El verdadero problema de los centros de datos terrestres
Los centros de datos nunca se diseñaron para ser populares, solo funcionales. Pero ahora están en la mira de todos, por las razones equivocadas. Consumen terreno, sobrecargan las redes locales y, en algunas regiones, consumen millones de litros de agua solo para mantenerse frescos. Si a esto le sumamos las cargas de trabajo de IA que siguen escalando, las fallas en el sistema se vuelven más difíciles de ignorar. Entrenar modelos de nueva generación como Gemini o GPT no solo es costoso, sino que también consume mucha energía a una escala que la mayoría de las ciudades no fueron diseñadas para soportar.
Algunos condados ya se están resistiendo. Las autoridades locales están suspendiendo la concesión de nuevos permisos. Las comunidades se preguntan si unos pocos megavatios de progreso en IA justifican el impacto en su infraestructura. Y eso sin hablar de las emisiones. Incluso con energías renovables, los centros de datos terrestres dejan una huella, tanto física como ambiental. Por lo tanto, la idea de trasladar parte de esa carga a la órbita no solo suena audaz, sino que empieza a parecer una forma práctica de seguir creciendo sin sobrepasar los límites que ya hemos alcanzado en tierra.

Google, Musk y la carrera armamentística de la computación orbital
Ya no se trata solo de una oleada de experimentos o ideas descabelladas. Lo que se está desarrollando ahora se asemeja más a las primeras etapas de una verdadera carrera por la infraestructura: no se trata de titulares, sino de control. A medida que los centros de datos terrestres se enfrentan a límites estrictos (energía, agua, espacio y políticas), la pregunta ha cambiado. Ya no se trata de si podemos computar en el espacio. Se trata de quién lo hará primero, a escala y en los términos de quién.
Distintos actores siguen estrategias diferentes. Pero el objetivo común es claro: acercar la computación al lugar donde se generan los datos, superar los cuellos de botella de la Tierra y construir la siguiente capa de infraestructura desde cero.
Google y el Proyecto Suncatcher
Google está abordando esto como un ingeniero de sistemas: constante, detallado y centrado en la validación. El Proyecto Suncatcher es un proyecto de investigación ambicioso que comienza con dos satélites prototipo (en colaboración con Planet Labs), cuyo lanzamiento está previsto para principios de 2027, cada uno equipado con chips TPU de Google (en concreto, las pruebas incluyen TPU de la generación Trillium; los primeros prototipos incorporan una pequeña cantidad, como cuatro TPU por satélite en algunas descripciones). Estos satélites operarán en órbita heliosíncrona para maximizar el tiempo de funcionamiento de la energía solar.
El experimento se basa en tres objetivos principales:
- Probar si los chips de IA estándar pueden sobrevivir a la alta radiación y a condiciones orbitales extremas
- Evaluar sistemas de enfriamiento pasivos que no dependen de ventiladores o circuitos de líquido.
- Redes de prueba basadas en láser para comunicaciones de satélite a satélite y de satélite a tierra de gran ancho de banda
Si los resultados son positivos, Google podría escalar futuros nodos de cómputo en el espacio sin tener que rediseñar su pila desde cero. Esto les abre una vía hacia una infraestructura orbital modular construida con hardware que ya conocen a la perfección.
Elon Musk y la trayectoria computacional de Starlink
La estrategia de Musk es menos formal, pero potencialmente más agresiva. No ha publicado una hoja de ruta, pero la dirección es visible. Starlink ya opera una enorme constelación de satélites en constante evolución. Actualmente, actúan como repetidores. Pero Musk ha insinuado abiertamente que las generaciones futuras podrían gestionar más: computación, filtrado, compresión, todo en órbita.
Convertir Starlink en una plataforma de computación de borde orbital ofrecería ventajas estratégicas:
- Procesamiento local de datos de sensores, cámaras y sistemas sin enviar todo a la Tierra
- Menor latencia para aplicaciones en tiempo real en campos como respuesta a desastres, monitoreo ambiental y defensa.
- Mayor autonomía para sistemas orbitales con menor necesidad de contacto constante con el suelo
- Computación escalable que crece con cada lanzamiento de Starlink
A diferencia de otros, SpaceX controla todo el proceso: los vehículos de lanzamiento, el hardware, la constelación y la velocidad de iteración. Esto les brinda mayor flexibilidad para probar, implementar y actualizar sin dependencias externas.
Lo que convierte esto en una carrera armamentística no es quién tiene la mejor demostración, sino quién convertirá primero la computación orbital en una infraestructura funcional. Google está optimizando la fiabilidad y la continuidad del software. Musk apuesta por la escalabilidad y la integración vertical. El ganador podría definir cómo funcionará realmente el futuro de la IA, la computación de borde y los flujos de datos a escala planetaria, no solo en la Tierra, sino a su alrededor.

FlyPix AI: Por qué la inteligencia geoespacial necesitará una infraestructura de calidad espacial
En FlyPix AI, Diseñamos herramientas de IA que ayudan a los equipos a comprender rápidamente lo que sucede sobre el terreno, utilizando lo que ven desde arriba. Nuestra plataforma analiza imágenes satelitales, aéreas y de drones, convirtiendo datos visuales complejos en información estructurada. Sin código ni configuraciones complejas: solo resultados claros y rápidos.
A medida que las imágenes satelitales se expanden y los datos se vuelven más constantes, el verdadero desafío es mantenerse al día con el análisis. Un procesamiento más cercano a la órbita podría reducir los retrasos y mejorar la capacidad de respuesta del monitoreo basado en IA. Para plataformas como la nuestra, este cambio podría ser una evolución natural: acercar la computación al origen de los datos.
Nos centramos en resolver problemas reales en sectores como la agricultura, la construcción, la infraestructura y la monitorización ambiental. Con el apoyo de socios como NVIDIA, AWS y ESA BIC Hessen, construimos para lograr escalabilidad, flexibilidad y fiabilidad. Puede encontrarnos en LinkedIn para ver cómo trabajamos con equipos de todo el mundo.
Radiación, enfriamiento y costos de lanzamiento: ¿Por qué sigue siendo un proyecto ambicioso?
La idea de instalar centros de datos en el espacio tiene sentido en teoría: energía solar ilimitada, sin complicaciones de zonificación y sin necesidad de bombear agua para refrigeración. Pero cuanto más se acerca la construcción de uno, más complejo se vuelve el panorama. Aquí es donde la cosa se complica:
- La radiación devora el hardware: Los chips estándar no están diseñados para resistir rayos cósmicos ni tormentas solares. Se les protege (lo que aumenta su peso) o se les reconstruye para que toleren daños, lo cual no siempre es posible con componentes de IA estándar.
- El calor no tiene adónde ir: En la Tierra, la refrigeración es sencilla. Ventiladores, circuitos de agua, flujo de aire... funciona. En órbita, no hay aire que absorba el calor. Eso implica construir grandes radiadores solo para mantener temperaturas seguras, lo que añade masa y complejidad de ingeniería.
- Los costos de lanzamiento aún no son lo suficientemente bajos: Incluso con cohetes reutilizables, poner en órbita infraestructura pesada sigue siendo muy costoso. La mayoría de las proyecciones indican que los precios deben bajar significativamente antes de que la computación orbital se convierta en algo más que un caso de prueba.
Una cosa es construir para alcanzar la velocidad y la escala, y otra muy distinta hacerlo con limitaciones físicas. El hardware podría estar listo. ¿Pero la órbita? Sigue siendo un entorno difícil.
Si los centros de datos espaciales realmente despegan
Si las pruebas actuales tienen éxito y el espacio demuestra ser un entorno viable para la computación a escala, podría impulsar un cambio importante. El procesamiento podría acercarse al lugar donde se generan los datos, especialmente en áreas como la observación de la Tierra, la monitorización satelital o los sistemas orbitales autónomos. Esto reduciría la latencia, reduciría la carga de la infraestructura terrestre y posibilitaría el análisis en tiempo real en escenarios donde cada segundo cuenta.
Pero incluso si falla o si los resultados económicos no cuadran, los experimentos siguen siendo valiosos. Cada prueba mejora la comprensión de la computación de borde en condiciones extremas. Los diseños de radiadores fallidos revelan límites térmicos. Los modelos de IA expuestos a la radiación resaltan dónde fallan los sistemas y cómo pueden reforzarse. Independientemente de si la computación termina en órbita o no, lo aprendido en el proceso determinará cómo se construyen los sistemas de próxima generación en todas partes.

De los archivos lunares a las supercomputadoras orbitales: ¿qué sigue?
La infraestructura de datos basada en el espacio está evolucionando rápidamente: desde módulos de almacenamiento experimental en la Luna hasta los primeros pasos hacia redes informáticas a gran escala en órbita.
El almacenamiento fuera del planeta ya está en marcha
El reciente despliegue lunar de Lonestar puso a prueba la capacidad de los datos digitales para sobrevivir y funcionar en entornos hostiles fuera de la Tierra. Si bien el dispositivo era compacto y temporal, marcó un cambio hacia el uso del espacio no solo para la comunicación u observación, sino como un archivo digital a largo plazo.
El almacenamiento lunar podría eventualmente ofrecer una capa de respaldo para información crítica, aislada de cortes de energía, riesgos climáticos o sabotaje físico en la Tierra. La Luna no reemplazará el almacenamiento en la nube, pero podría complementarlo de maneras que hasta hace poco no eran realistas.
La computación orbital es la verdadera frontera
La órbita baja terrestre es donde las cosas empiezan a escalar. En lugar de simplemente almacenar datos, los satélites podrían analizarlos y reaccionar a ellos sobre la marcha. Esto abre la puerta a sistemas más inteligentes y rápidos que no dependen de la comunicación terrestre constante para funcionar.
Los beneficios potenciales de la computación en órbita incluyen:
- Procesamiento de imágenes satelitales antes de que lleguen a la Tierra
- Reducir el volumen de datos que necesitan transmisión
- Habilitación de la inferencia de IA casi en tiempo real para sistemas espaciales
- Mejorar la capacidad de respuesta de los vehículos autónomos y los sensores en órbita
Los próximos años probablemente traerán una mezcla de misiones piloto, intentos fallidos y avances clave. Pero la dirección es clara: la informática está en auge, literalmente.
Conclusión
El espacio no es el lugar ideal para construir centros de datos. Todavía no. Hay radiación, calor, costes y una larga lista de problemas técnicos. Pero cada vez es más difícil ignorar las presiones en la Tierra. El crecimiento de la IA, la teledetección y los flujos globales de datos está superando lo que la infraestructura tradicional puede soportar cómodamente. Por eso, empresas como Google, Starcloud (startup respaldada por NVIDIA que ya lanzó un demostrador en noviembre de 2025 y entrenó modelos de IA en órbita) y SpaceX están explorando e invirtiendo en computación orbital.
El cambio no ocurrirá de golpe. Algunas cosas funcionarán. Otras no. Pero la dirección es clara: a medida que nuestros sistemas se vuelven más distribuidos y consumen más datos, tiene sentido empezar a pensar más allá de las fronteras físicas. No todo tiene que permanecer en tierra. Y si la computación orbital puede reducir la fricción, mejorar la velocidad o aliviar la presión de la red terrestre, la pregunta no será si funcionará, sino cuándo.
Preguntas frecuentes
Todavía no. La mayor parte de lo que está sucediendo todavía es experimental: misiones a pequeña escala diseñadas para probar la durabilidad del hardware, la eficiencia energética y las comunicaciones. Pero los plazos se están acortando. Probablemente veremos los primeros casos de uso funcionales para finales de esta década.
En algunos lugares, ya hemos alcanzado nuestros límites. El suministro de energía, el acceso al agua, las necesidades de refrigeración y la oposición pública se están convirtiendo en verdaderas limitaciones. Para tareas de alta demanda como el entrenamiento de IA, la expansión terrestre se está volviendo complicada y costosa.
Depende. En teoría, podrían ser más limpios, alimentados por energía solar ininterrumpida y sin necesidad de agua. Pero los lanzamientos aún consumen combustible, y los ciclos de reemplazo de hardware añaden complejidad. Si la computación espacial escala, la sostenibilidad deberá formar parte del diseño, no solo una ventaja teórica.
Por supuesto. Ese es uno de los casos de uso más sólidos a corto plazo. Procesar los datos más cerca del lugar de captura podría reducir el retardo de transmisión y permitir información en tiempo real, especialmente para imágenes de alta frecuencia o sistemas espaciales autónomos.
Es uno de ellos, sí. Poner en órbita equipos pesados y sensibles al calor de forma segura no es barato, ni siquiera con cohetes reutilizables. Pero el coste del lanzamiento no es el único factor. La regulación térmica, la vida útil del hardware y la fiabilidad de la red también son obstáculos importantes.