Stackscale maakt van de brand in Almere een echte test van continuïteit

De brand die op 7 mei uitbrak in het datacenter van NorthC in Almere, Nederland, heeft een van die lessen achtergelaten die de cloud-sector in presentaties vaak benadrukt, maar die pas echt begrepen worden wanneer er een crisis plaatsvindt. Digitale infrastructuur brandt ook, moet geëvacueerd worden, raakt ontoegankelijk en kan bedrijven, universiteiten, overheidsinstanties en professionals zonder dienst achterlaten — systemen waarvan ze tot dat moment uitgingen dat ze altijd beschikbaar zouden zijn.

In dat kader heeft het openbare getuigenis van Jeroen Derks, PHP- en Laravel-specialist, een minder zichtbaar stuk van de technische reactie een naam gegeven. Na de brand legde Derks op LinkedIn uit dat zijn door Stackscale beheerde server binnen recordtijd op een andere locatie weer operationeel was. Terwijl hij zich zorgen maakte over het verlies van toegang tot e-mail, werkte het engineering- en supportteam op de achtergrond om de dienst te herstellen.

Zijn boodschap, met een eenvoudige maar krachtige uitspraak “Turns out, Stackscale is fireproof”, vat iets samen dat elke infrastructurele leverancier zou moeten kunnen aantonen: bedrijfscontinuïteit wordt niet voorgesteld in folders, maar bewezen door de capaciteit om te reageren wanneer een fysieke locatie uitvalt.

Een brand die het fysieke deel van de cloud deed herinneren

De brand ontstond op donderdagochtend 7 mei 2026 in de faciliteiten van NorthC Datacenters aan de Rondebeltweg, binnen het industrieterrein Sallandsekant in Almere Stad. NorthC meldde dat de brand rond 08:45 uur uitbrak en dat alle aanwezigen tijdig geëvacueerd konden worden. De autoriteiten activeerden een NL-Alert voor nabijgelegen bewoners vanwege de rook, en de situatie werd aanvankelijk opgeschaald naar GRIP 1, een coördinatieniveau voor noodgevallen in Nederland.

Deze gebeurtenis was niet gering. Diverse Nederlandse en internationale media berichtten over problemen met digitale diensten gekoppeld aan openbare, onderwijs- en bedrijfsorganisaties. De Universiteit Utrecht meldde impact op haar netwerk, applicaties en websites, met gevolgen voor dagelijks werk, onderzoek en onderwijs. Andere media rapporteerden ook over verstoringen in openbaar vervoer, klinieken en overheidsinstanties.

De gebeurtenis bracht een ongemakkelijke realiteit aan het licht: cloud, hosting, connectiviteit en digitale platforms hangen af van specifieke gebouwen, elektrische systemen, technische ruimten en apparatuur. Hoe redundant ze ook lijken, ze kunnen uren of dagen ontoegankelijk blijven. Cloud zweeft niet in de lucht. Het bevindt zich in datacenters met fysieke risico’s, van branden tot stroomstoringen, overstromingen, glasvezelstoringen of koelingsproblemen.

In het geval van Almere meldde Techzine dat volledige herstel van het datacenter tot 72 uur kon duren, terwijl NorthC werkte aan inspecties, schadecontrole en communicatie met klanten. Voor elk getroffen bedrijf kan datraam acceptabel zijn met een getest herstelplan; het kan kritiek worden als alles afhankelijk is van één locatie.

Het herstellen van een server gaat niet alleen om een andere machine aanzetten

Het gedeelde verhaal van Jeroen Derks maakt dit duidelijk omdat het de discussie concreet maakt. Bedrijfscontinuïteit draait niet alleen om een back-up hebben. Je moet weten waar de back-up staat, wanneer deze is gemaakt, of deze consistent is, hoe lang het duurt om te herstellen, welke afhankelijkheden er zijn, welke DNS-aanpassingen nodig zijn, welke netwerken moeten worden opgezet, welke gegevens verloren kunnen gaan en welke klanten geïnformeerd moeten worden.

Herstellen van een server op een andere locatie na een datacenterincident vereist technische en operationele coördinatie. Men moet de status van de getroffen service evalueren, back-ups of replicas zoeken, alternatieve capaciteit provisioneren, machines reconstructie, systemen valideren, connectiviteit controleren, e-mails, databases, certificaten, firewalls, opslag en monitoring herzien. Soms moet dit zonder directe toegang tot het oorspronkelijke gebouw gebeuren.

Hier ligt het verschil tussen een leverancier die alleen infrastructurele hosting biedt en één die handelt met een mentaliteit van continuïteit. De respons hangt niet alleen af van beschikbare hardware. Het gaat om processen, mensen, documentatie, automatisering en ervaring. Ook het hebben van meerdere locaties en het snel kunnen verschuiven van workloads bij calamiteiten zijn cruciaal.

De publieke erkenning van Derks heeft waarde omdat deze niet gebaseerd is op een bedrijfsverklaring maar op de reactie van een klant die een echte onderbreking meemaakte en zag dat zijn dienst op een andere locatie weer operationeel was. In dergelijke situaties wordt vertrouwen niet opgebouwd met beloften, maar met daadwerkelijke uitvoering.

Resilience moet vooraf ontworpen worden en getest

De brand bij NorthC in Almere onderstreept een duidelijke les voor elke organisatie die afhankelijk is van digitale infrastructuur: veerkracht wordt niet improviserend tijdens een incident ontwikkeld. Het wordt vooraf ontworpen en getest.

Veel bedrijven geloven dat ze continuïteit hebben omdat ze backups maken. Dat is een goede eerste stap, maar niet voldoende. Een back-up die nooit is hersteld, is slechts een hoop hoop. Een herstelplan dat alleen op papier bestaat zonder verantwoordelijken, tijden en regelmatige tests, kan falen op het moment dat het nodig is. Het concentreren van kritieke architectuur in één datacenter maakt elke fysieke gebeurtenis een bedrijfsrisico.

De juiste strategie hangt af van het soort workload. Niet elke service vereist actieve-activiteit hoge beschikbaarheid tussen meerdere datacenters. Niet alles rechtvaardigt synchronisatie-replicatie, geografische clustering of complexe architecturen. Maar iedereen moet wel duidelijke RPO (Recovery Point Objective) en RTO (Recovery Time Objective) hebben: hoeveel data verloren kan gaan en hoe lang het maximale stilstandduur is.

Een zakelijke e-mail, een e-commerce website, een SaaS-platform, een ERP, een klantendatabase of een bedrijfswebsite hebben verschillende niveaus van criticaliteit. Belangrijke vragen moeten altijd beantwoord worden: waar liggen de data, wat gebeurt er als het hoofddatacenter onbereikbaar wordt, wie voert het herstel uit, hoe lang duurt het, hoe wordt gecommuniceerd met gebruikers en wanneer is het voor het laatst getest?

De situatie in Almere onderstreept ook het belang van locatie-diversificatie. In Europa kiezen veel bedrijven voor cloud of colocatie met het oog op latency, prijs of certificeringen, maar hebben ze niet altijd een architectuur die fysieke uitval van een installatie ondersteunt. Het beschikbaar stellen van meerdere datacenters, redundante netwerken en geografisch gescheiden back-ups is geen luxe als de service kritieke activiteiten ondersteunt.

Lessen voor providers en klanten

Voor infrastructuurleveranciers verplicht een incident zoals dat in Almere een herziening van noodplannen, communicatie, samenwerking met hulpdiensten, toegang tot faciliteiten, klantenbeheer, prioritering van diensten en cross-herstelscenario’s. Transparantie is daarbij cruciaal. In een crisis hebben klanten behoefte aan frequente, duidelijke en nuttige informatie, zelfs als niet alle antwoorden er meteen zijn.

Voor klanten is de les even streng. Bedrijven kunnen niet alle continuïteit uitsluitend aan de provider toevertrouwen zonder de eigen architectuur te begrijpen. Het is noodzakelijk het juiste niveau van resilience te contracteren, back-ups te controleren, hersteltests te eisen, afhankelijkheden te documenteren en te voorkomen dat kosten de hoofdcriterium worden. Hoge beschikbaarheid wordt niet standaard geleverd, maar moet ontworpen, gecontracteerd en onderhouden worden.

De ervaring van Stackscale met de server van Jeroen Derks laat zien wat een crisis ook positief kan brengen: met het juiste team, procedures en meerdere locaties is het mogelijk om getroffen workloads te herstellen en de impact voor de klant te minimaliseren. Het onderstreept ook de waarde van de menselijke teams achter de cloud. In zijn post bedankte Derks de engineers en supportmedewerkers voor hun snelle en effectieve reactie onder moeilijke omstandigheden.

Dat erkentelijkheid is waardevol, omdat bedrijfscontinuïteit vaak wordt gezien als een koele technologische laag. In werkelijkheid maken tijdens een ernstig incident mensen met besluitvaardigheid, coördinatie en snelheid het verschil. Automatisering helpt, maar iemand moet de platformen kennen, prioriteiten stellen, communiceren en bevestigen dat de dienst weer draait.

De brand in Almere zal niet het laatste fysieke incident zijn dat een Europees datacenter treft. De afhankelijkheid van digitale infrastructuur zal blijven groeien, en daarmee ook de blootstelling aan storingen die als onwaarschijnlijk lijken totdat ze zich voordoen. De essentiële vraag voor bedrijven en providers is niet of er problemen komen, maar of de architectuur en teams klaar zullen zijn wanneer dat gebeurt.

Veelgestelde vragen

Wat gebeurde er in het datacenter van NorthC in Almere?
Op 7 mei 2026 ontstond er brand in de faciliteiten van NorthC Datacenters aan de Rondebeltweg in Almere. Het gebouw werd geëvacueerd en de hulpdiensten activeerden een NL-Alert vanwege de rook.

Hoe hangt Stackscale samen met dit incident?
Een klant van Stackscale, Jeroen Derks, verklaarde publiekelijk dat zijn server na de brand weer actief was op een andere locatie en bedankte het technische en supportteam voor hun snelle reactie.

Wat is het verschil tussen een backup en bedrijfscontinuïteit?
Een backup is een kopie van data. Bedrijfscontinuïteit omvat ook herstel, alternatieve infrastructuur, netwerken, hersteltijden, communicatie en regelmatige testen.

Waar moet een organisatie op letten na een incident als dit?
Ze moeten hun RPO en RTO herzien, locaties van back-ups controleren, hersteltests uitvoeren, afhankelijkheden evalueren, communicatieplannen opstellen en de daadwerkelijke hoge beschikbaarheid verifiëren.

Scroll naar boven