Jarenlang groeiden datacenters stilletjes op de achtergrond, verscholen achter industriële hekken en anonieme gebouwen. Nu lopen ze tegen zeer reële grenzen aan. Elektriciteitsnetten staan onder druk, water voor koeling is schaars en gemeenschappen verzetten zich tegen nieuwe serverparken. Tegelijkertijd worden AI-modellen groter, energieverslindender en moeilijker te onderhouden. Tegen die achtergrond begint een idee dat ooit sciencefiction leek, vreemd genoeg steeds praktischer aan te voelen. Als de aarde geen ruimte en energie meer heeft voor computergebruik, is een baan om de aarde misschien wel de volgende stap.
Waarom de ruimte? Het echte probleem met datacenters op aarde.
Datacenters waren nooit ontworpen om populair te zijn, alleen functioneel. Maar nu staan ze bij iedereen in de belangstelling – om de verkeerde redenen. Ze nemen veel land in beslag, belasten lokale elektriciteitsnetten en verbruiken in sommige regio's miljoenen liters water om te koelen. Voeg daar de steeds groter wordende AI-workloads aan toe, en de zwakke plekken in het systeem worden steeds moeilijker te negeren. Het trainen van de volgende generatie modellen zoals Gemini of GPT is niet alleen duur, maar ook energie-intensief op een schaal die de meeste steden niet aankunnen.
Sommige regio's verzetten zich er al tegen. Lokale overheden stellen nieuwe vergunningen uit. Gemeenschappen vragen zich af of een paar megawatt aan AI-vooruitgang de impact op hun infrastructuur wel waard is. En dan hebben we het nog niet eens over de uitstoot. Zelfs met hernieuwbare energie hebben datacenters op aarde een voetafdruk – zowel fysiek als ecologisch. Het idee om een deel van die belasting naar de ruimte te verplaatsen klinkt dus niet alleen gedurfd, maar begint ook te klinken als een praktische manier om te blijven groeien zonder de grenzen te overschrijden die we op aarde al hebben bereikt.

Google, Musk en de wapenwedloop in de wereld van orbitale computers.
Dit is niet langer slechts een golf van experimenten of ambitieuze ideeën. Wat zich nu ontvouwt, lijkt meer op de beginfase van een echte infrastructuurwedloop – niet om de krantenkoppen, maar om de controle. Nu datacenters op aarde tegen hun grenzen aanlopen – energie, water, ruimte en beleid – is de vraag veranderd. Het is niet langer de vraag óf we in de ruimte kunnen rekenen. De vraag is wie het als eerste op grote schaal zal doen, en onder wiens voorwaarden.
Verschillende spelers volgen verschillende strategieën. Maar het gemeenschappelijke doel is duidelijk: rekenkracht dichter bij de databronnen brengen, de knelpunten op aarde omzeilen en de volgende laag infrastructuur van de grond af opbouwen.
Google en Project Suncatcher
Google benadert dit als een systeemingenieur: gestaag, gedetailleerd en gericht op validatie. Project Suncatcher is een ambitieus onderzoeksproject dat begint met twee prototypesatellieten (in samenwerking met Planet Labs) die naar verwachting begin 2027 gelanceerd zullen worden. Elke satelliet is uitgerust met Google TPU-chips (specifiek worden er tests uitgevoerd met TPU's van de Trillium-generatie, waarbij vroege prototypes volgens sommige beschrijvingen een klein aantal, zoals vier TPU's per satelliet, bevatten). Deze satellieten zullen in een zon-synchrone baan opereren om de beschikbaarheid van zonne-energie te maximaliseren.
Het experiment is opgebouwd rond drie kerndoelstellingen:
- Test of standaard AI-chips bestand zijn tegen hoge straling en extreme omstandigheden in een baan rond de aarde.
- Evalueer passieve koelsystemen die geen gebruik maken van ventilatoren of vloeistofcircuits.
- Proefproject met lasergebaseerde netwerken voor breedbandcommunicatie tussen satellieten onderling en tussen satellieten en de grond.
Als de resultaten positief zijn, zou Google toekomstige computerknooppunten in de ruimte kunnen opschalen zonder de hele infrastructuur volledig opnieuw te hoeven ontwerpen. Dat biedt hen een mogelijkheid om modulaire orbitale infrastructuur te bouwen met hardware die ze al door en door kennen.
Elon Musk en het Starlink-rekentraject
Musks strategie is minder formeel, maar mogelijk agressiever. Hij heeft geen routekaart gepubliceerd, maar de richting is duidelijk. Starlink beschikt al over een enorm, steeds verder ontwikkelend netwerk van satellieten. Momenteel fungeren ze als relais. Maar Musk heeft openlijk laten doorschemeren dat toekomstige generaties meer aankunnen: berekeningen, filtering, compressie – allemaal in een baan om de aarde.
Het omvormen van Starlink tot een platform voor edge computing in een baan om de aarde zou strategische voordelen opleveren:
- Lokale verwerking van gegevens van sensoren, camera's en systemen zonder alles naar de aarde te hoeven sturen.
- Lagere latentie voor realtime-toepassingen in sectoren zoals rampenbestrijding, milieumonitoring en defensie.
- Meer autonomie voor orbitale systemen met minder behoefte aan constant contact met de grond.
- Schaalbare rekenkracht die meegroeit met elke Starlink-lancering.
In tegenstelling tot andere bedrijven heeft SpaceX de volledige controle over het productieproces: de lanceerraketten, de hardware, de satellietconstellatie en het tempo van de iteraties. Dat geeft hen meer flexibiliteit om te testen, te lanceren en te upgraden zonder afhankelijk te zijn van externe partijen.
Wat deze wapenwedloop zo spannend maakt, is niet wie de beste demonstratie heeft, maar wie als eerste orbitale computerkracht omzet in een werkende infrastructuur. Google optimaliseert voor betrouwbaarheid en softwarecontinuïteit. Musk zet in op schaalvergroting en verticale integratie. De winnaar zou wel eens bepalend kunnen zijn voor de toekomst van AI, edge computing en datastromen op planetaire schaal – niet alleen op aarde, maar ook daarbuiten.

FlyPix AI: Waarom geospatiale intelligentie infrastructuur van ruimtevaartkwaliteit nodig heeft
Bij FlyPix-AI, Wij ontwerpen AI-tools die teams helpen snel te begrijpen wat er op de grond gebeurt – aan de hand van wat ze vanuit de lucht zien. Ons platform analyseert satelliet-, lucht- en dronebeelden en zet complexe visuele data om in gestructureerde inzichten. Geen code, geen ingewikkelde installatie – gewoon heldere resultaten, snel.
Naarmate satellietbeelden zich uitbreiden en data constanter worden, is de grootste uitdaging om de analyses bij te houden. Verwerking dichter bij de satelliet zou vertragingen kunnen verminderen en AI-gestuurde monitoring responsiever kunnen maken. Voor platforms zoals het onze zou die verschuiving een natuurlijke evolutie kunnen zijn – de rekenkracht dichter bij de bron van de data brengen.
We richten ons op het oplossen van concrete problemen in diverse sectoren, zoals landbouw, bouw, infrastructuur en milieumonitoring. Met de steun van partners als NVIDIA, AWS en ESA BIC Hessen bouwen we aan schaalbaarheid, flexibiliteit en betrouwbaarheid. Je kunt ons vinden op [link]. LinkedIn om te zien hoe we samenwerken met teams over de hele wereld.
Straling, koeling en lanceerkosten: waarom het nog steeds een ambitieus project is.
Het idee om datacenters in de ruimte te plaatsen klinkt op papier logisch: eindeloze zonne-energie, geen gedoe met bestemmingsplannen en geen waterpompen nodig voor koeling. Maar hoe dichter je bij de realisatie komt, hoe complexer het plaatje wordt. En hier wordt het lastig:
- Straling tast hardware aan: Standaardchips zijn niet bestand tegen kosmische straling of zonnestormen. Je moet ze afschermen (wat extra gewicht met zich meebrengt) of ze zo herbouwen dat ze schade kunnen weerstaan – wat niet altijd mogelijk is met standaard AI-componenten.
- De hitte kan nergens heen: Op aarde is koeling eenvoudig. Ventilatoren, watercircuits, luchtstroom – het werkt. In een baan om de aarde is er geen lucht om warmte af te voeren. Dat betekent dat er enorme radiatoren gebouwd moeten worden om de temperatuur binnen veilige grenzen te houden, wat extra massa en technische complexiteit met zich meebrengt.
- De opstartkosten zijn nog niet laag genoeg: Zelfs met herbruikbare raketten blijft het in een baan om de aarde brengen van zware infrastructuur erg duur. De meeste prognoses geven aan dat de prijzen aanzienlijk moeten dalen voordat orbitale computerberekeningen meer worden dan een testcase.
Het is één ding om te bouwen voor snelheid en schaalbaarheid, maar het is iets heel anders om dat te doen met fysieke beperkingen erbij. De hardware is misschien klaar. Maar de baan om de aarde? Dat blijft een lastig terrein.
Als datacenters in de ruimte daadwerkelijk van de grond komen
Als de huidige tests slagen en de ruimte een geschikte omgeving blijkt te zijn voor grootschalige computerberekeningen, zou dat een grote verschuiving teweeg kunnen brengen. De verwerking zou dichter bij de bron van de data kunnen plaatsvinden, met name op gebieden zoals aardobservatie, satellietmonitoring of autonome orbitale systemen. Dat zou de latentie verlagen, de belasting van de infrastructuur op de grond verminderen en realtime analyses mogelijk maken in situaties waarin elke seconde telt.
Maar zelfs als het niet helemaal lukt of als de economische haalbaarheid niet klopt, hebben de experimenten nog steeds waarde. Elke test vergroot ons begrip van edge computing onder extreme omstandigheden. Mislukte radiatorontwerpen onthullen thermische limieten. AI-modellen die aan straling worden blootgesteld, laten zien waar systemen falen en hoe ze kunnen worden versterkt. Of computers nu wel of niet in een baan om de aarde terechtkomen, de lessen die we gaandeweg leren, zullen bepalen hoe de volgende generatie systemen overal ter wereld wordt gebouwd.

Van maanarchieven tot supercomputers in een baan rond de aarde: wat staat ons te wachten?
De data-infrastructuur in de ruimte ontwikkelt zich snel – van experimentele opslagmodules op de maan tot de eerste stappen richting grootschalige computernetwerken in een baan rond de aarde.
Opslag buiten de aarde is al in gang gezet.
De recente missie van Lonestar naar de maan testte of digitale data kunnen overleven en functioneren in barre omstandigheden buiten de aarde. Hoewel het apparaat compact en tijdelijk was, markeerde het een verschuiving naar het gebruik van de ruimte niet alleen voor communicatie of observatie, maar ook als een digitaal archief voor de lange termijn.
Opslag op de maan zou uiteindelijk een back-uplaag kunnen bieden voor cruciale informatie – geïsoleerd van stroomuitval, klimaatrisico's of fysieke sabotage op aarde. De maan zal cloudopslag niet vervangen, maar kan deze wel aanvullen op manieren die tot voor kort niet realistisch waren.
Orbitale berekeningen vormen de echte grens.
In een lage baan om de aarde begint het echt te schalen. In plaats van alleen maar data op te slaan, kunnen satellieten die data direct analyseren en erop reageren. Dat opent de deur naar slimmere, snellere systemen die niet langer afhankelijk zijn van constante communicatie met de grond.
Mogelijke voordelen van computergebruik in een baan om de aarde zijn onder meer:
- Het verwerken van satellietbeelden voordat ze de aarde bereiken.
- Het verminderen van de hoeveelheid data die verzonden moet worden.
- Het mogelijk maken van bijna realtime AI-inferentie voor ruimtesystemen.
- Verbetering van de reactiesnelheid van autonome voertuigen en sensoren in een baan om de aarde.
De komende jaren zullen waarschijnlijk een mix van proefprojecten, mislukte pogingen en belangrijke doorbraken opleveren. Maar de richting is duidelijk: de computertechnologie gaat letterlijk de hoogte in.
Conclusie
De ruimte is (nog) niet de ideale plek om datacenters te bouwen. Er is straling, hitte, hoge kosten en een lange lijst met technische problemen. Maar het wordt steeds moeilijker om de druk op aarde te negeren. De groei van AI, teledetectie en wereldwijde datastromen overtreft wat de traditionele infrastructuur comfortabel aankan. Daarom onderzoeken en investeren bedrijven zoals Google, Starcloud (een door NVIDIA gesteunde startup die in november 2025 al een demonstratiemodel heeft gelanceerd en AI-modellen in een baan om de aarde heeft getraind) en SpaceX in computergebruik in een baan om de aarde.
De omslag zal niet in één keer plaatsvinden. Sommige dingen zullen werken, andere niet. Maar de richting is duidelijk: naarmate onze systemen meer gedistribueerd en datahongerig worden, is het logisch om verder te denken dan fysieke grenzen. Niet alles hoeft op aarde te blijven. En als computerkracht in een baan om de aarde wrijving kan verminderen, de snelheid kan verhogen of de druk op het aardse elektriciteitsnet kan verlichten, is het misschien geen kwestie van óf, maar van wanneer.
Veelgestelde vragen
Nog niet. Het meeste wat er gebeurt is nog experimenteel – kleinschalige missies bedoeld om de duurzaamheid van hardware, energie-efficiëntie en communicatie te testen. Maar de tijdslijn wordt korter. We zullen de eerste functionele toepassingen waarschijnlijk tegen het einde van dit decennium zien.
Op sommige plekken lopen we al tegen de grenzen aan. Energievoorziening, toegang tot water, koelingsbehoeften en maatschappelijke tegenstand vormen allemaal reële beperkingen. Voor veeleisende taken zoals AI-training wordt uitbreiding vanaf de aarde steeds ingewikkelder en duurder.
Dat hangt ervan af. Theoretisch zouden ze schoner kunnen zijn – aangedreven door ononderbroken zonne-energie en zonder water nodig te hebben. Maar lanceringen verbruiken nog steeds brandstof, en de vervangingscycli van hardware voegen complexiteit toe. Als ruimtevaartcomputers op grote schaal worden ingezet, zal duurzaamheid onderdeel moeten zijn van het ontwerp, en niet alleen een voordeel op papier.
Absoluut. Dat is een van de meest veelbelovende toepassingen op korte termijn. Door data dichter bij de locatie waar ze worden verzameld te verwerken, kan de transmissievertraging worden verminderd en kunnen realtime inzichten worden verkregen, met name voor beeldvorming met hoge frequentie of autonome ruimtesystemen.
Ja, dat is er één van. Het veilig in een baan om de aarde brengen van zware, warmtegevoelige apparatuur is niet goedkoop, zelfs niet met herbruikbare raketten. Maar de lanceerkosten zijn niet de enige factor. Thermische regulering, levensduur van de hardware en betrouwbaarheid van het netwerk vormen ook grote obstakels.