Het verkeer van AI verandert de regels van cloudnetwerken

De groei van Kunstmatige Intelligentie (KI) verandert een minder zichtbaar deel van de digitale infrastructuur: het netwerkverkeer. Tot voor kort waren veel cloudoperatoren, CDN’s en opslagaanbieders gewend aan meer gespreid verkeer, met veel gebruikers, bestemmingen en relatief voorspelbare patronen. KI brengt een andere logica: grote datastromen die tussen enkele punten bewegen, in intensieve pieken, met veel moeilijker te plannen bandbreedtebehoeften.

Het netstastiekrapport van Backblaze over het eerste kwartaal van 2026 biedt cijfers en context bij deze transitie. Het bedrijf, bekend van zijn cloudopslagdiensten, observeert hoe flows gerelateerd aan neoclouds, hyperscale-infrastructuren en AI-belastingen zich onderscheiden van traditioneel CDN-, hosting- en regionaal internetverkeer. Belangrijk is niet alleen de hoeveelheid verkeer, maar vooral de wijze waarop het beweegt.

Van verspreid verkeer naar grote flows tussen weinige punten

AI-workloads vereisen niet alleen dataopslag. Ze vragen herhaaldelijk dataverkeer gedurende de gehele levenscyclus van een model. Databestanden worden geïngireerd, getransformeerd, geëxporteerd voor training, opgehaald voor evaluatie, opnieuw opgeslagen en geüpdatet naarmate modellen evolueren. Bij datasets van meerdere petabytes kunnen al deze stappen leiden tot omvangrijke netwerkoperaties.

Backblaze vat het samen als een verschuiving van “diffuus” patronen, typisch voor internet, naar grote, high-bandwidth flows tussen een beperkt aantal eindpunten. Voor netwerktechnici betekent dat een complete verandering van aanpak. CDN-verkeer wordt vaak verdeeld over vele gebruikers en locaties, wat load balancing en groeimodellering vereenvoudigt. KI-verkeer kan daarentegen geconcentreerd zijn in enkele GPU-clusters of compute-netwerken, met pieken tijdens trainingsvensters of databasereleases.

Dit soort verkeer wordt vaak “elephant flows” genoemd: enorme, geconcentreerde datastromen die moeilijk te verwerken zijn zonder voorbereiding. Ze lijken niet op gewoon videoconsumptie, traditionele webhosting of residentieel internetverkeer. Het gaat om grote overdrachten tussen storage en computing, vaak beperkt door de beschikbaarheid van GPU-clusters. Als een organisatie toegang krijgt tot een GPU-blok voor enkele uren of dagen, moet ze snel data verhuizen, werken uitvoeren en resultaten verzamelen voordat de window sluit.

Hier ontstaat nieuwe druk op de infrastructuur. Lineaire groei is niet voldoende. Men moet capaciteit hebben om pieken op te vangen, interne verbindingen binnen datacenters adequaat in te richten, met 100G- of 400G-poorten, privé-interconnecties en een architectuur die grote flows prioriteert zonder de rest van de diensten te degraderen.

Een kwartaal met winterstop en een rebound in maart

Het eerste kwartaal van 2026 toont een interessante dynamiek. Backblaze zag een vertraging in verkeer gerelateerd aan neoclouds en hyperscale-infrastructuren tijdens de winter, gevolgd door een herstel in maart. Tegelijk nam het CDN-verkeer toe in de winter, terwijl regionaal hosten en ISP-activiteiten binnen voorspelbare marges bleven.

Het bedrijf geeft twee mogelijke verklaringen. De eerste is seizoensgebonden: AI-projecten hangen af van menselijke teams, budgetten en ontwikkelingsschema’s. Als teams in de winter afremmen of pauzeren, daalt het verkeer. De tweede verklaring betreft de levenscyclus van data. Grote datasets blijven vaak weken of maanden opgeslagen en worden pas weer gemobiliseerd bij een nieuwe update, training of evaluatie, die dan weer een grote overdracht veroorzaakt.

Procentuele cijfers verduidelijken de verandering. Backblaze meldt dat het gecombineerde verkeer van neoclouds en hyperscales in volume afnam van 36,4% in Q4 2025 tot 25,5% in Q1 2026. Tegelijkertijd steeg CDN-verkeer van circa 20% naar 32%, en regionaal ISP-verkeer ging van 21,5% naar 27,8%. Dit betekent niet dat AI minder belangrijk is geworden, maar wel dat de flows onregelmatiger en cyclischer kunnen zijn.

Deze onregelmatigheid bemoeilijkt de planning. Een netwerk dat gericht is op stabiel groei kan tekortschieten bij grote data-overdrachten naar trainingsclusters. Overdimensionering van de infrastructuur voor onvoorspelbare pieken brengt ook kosten met zich mee. Daarom ligt de focus bij AI-netwerken meer op scenario-planning dan op eenvoudige maandelijkse trafficprojectionen.

Waar concentreren AI-verkeer zich?

De geografische analyse van Backblaze laat een sterke concentratie zien van neocloud-, hyperscale- en CDN-verkeer in de VS. Het land herbergt ongeveer 40-45% van alle datacenters wereldwijd, wat aansluit bij de waarnemingen. California is een belangrijk knooppunt voor neocloud-verkeer, terwijl hyperscale-activiteiten vooral plaatsvinden in California en Virginia, met name langs de Ashburn- en Reston-corridors.

Deze concentratie is niet verrassend. Ashburn en Noord-Virginia zijn al jaren belangrijke interconnectie- en datacenterregio’s. California combineert cloudproviders, technologiebedrijven, AI-vraag en de nabijheid van een ruim ecosysteem aan softwareontwikkelaars. Interessant is dat AI-verkeer niet gelijkmatig over nieuwe datacenterregio’s wordt verdeeld; bestaande infrastructuur en gevestigde routes blijven zwaar wegen.

Buiten de VS ziet Backblaze activiteit in Finland, Brazilië, Frankrijk en Canada. Het CDN-verkeer is prominent aanwezig in Nederland, mede door de connectiviteit met AMS-IX, terwijl hostingactiva vooral in Duitsland gevonden worden. Europa vertoont bovendien een andere dynamiek dan de VS: meer lokale uitwisselingspunten en interconnectiebeslissingen die beïnvloed worden door kosten, netpolitiek en operationele voorkeuren.

Voor Spanje en Zuid-Europa is de conclusie duidelijk: het aantrekken van AI-datacenters hangt niet alleen af van energie, grond en fiscale voordelen. Ook interconnectie, routes, nabijheid tot klanten, netwerkcapaciteit, privéverbindingen en grote bandbreedtebeschikbaarheid spelen een rol. AI laat geen knelpunten tussen opslag en computing onveranderd.

Wat betekent dit voor infrastructuuroperators?

Backblaze benadrukt dat netwerkteams tegenwoordig twee werelden moeten beheren. Aan de ene kant het stabiele verkeer van CDN, hosting en regionale ISP’s met voorspelbare patronen. Aan de andere kant de geconcentreerde, dynamische flows van neoclouds en hyperscales, die grote pieken kennen en vragen om extra capaciteit.

Voor effectief beheer kunnen oplossingen bestaan uit het toevoegen van bandwidth in stapjes van 100G, vaak ook met 400G-poorten, zorgen dat interne datacenterverbindingen burst-bestendig zijn, en privé-interconnecties met strategische partners opzetten wanneer dat zinvol is. Dit benadert meer een high-performance wholesale infrastructuur dan traditioneel webhosting-ontwerp.

De multimodaliteit van gegevensverkeer speelt hier ook een rol. Modellen worden niet alleen getraind met tekst, maar ook met beelden, audio, video en synthetische data. Dit vergroot de datasetgroottes en de bewegingen tussen opslag, training, evaluatie en inferentie. Toekomstige toepassingen met real-time video, multimodale modellen en gepersonaliseerde oplossingen vragen nog meer capaciteit en snellere datastromen.

Voor AI-productontwikkelaars betekenen deze trends kostenaspecten. Verhuizen van data kost geld. Keuzes in opslaglocatie, regio, GPU-cluster, interconnectie en pipeline-architectuur beïnvloeden zowel prestaties als kosten. In AI wordt computing belangrijker, maar ook netwerkinfrastructuur krijgt strategisch gewicht.

Het is dus niet zo dat alles naar privé-netwerken of gespecialiseerde datacenters moet. Het punt is concreter: AI-laadwerk verhoudt zich niet tot traditioneel webverkeer. Organisaties die willen trainen, afstemmen of evalueren met grote datasets, moeten opslag en netwerk ontwerpen rondom herhaalde bewegingen, bursts en de nabijheid van data en compute.

AI zorgt voor groter, ruisender en onvoorspelbaarder verkeer. Dit vraagt herziening van cloudnetwerk-ontwerp: de volgende concurrentievoorsprong ligt niet alleen in beschikbare GPU’s, maar vooral in het tijdig en ongestoord aanleveren van data, zonder dat congestie de waarde van projecten ondermijnt.

Veelgestelde vragen

Wat is neocloud-verkeer?
Verkeer gerelateerd aan AI-gerichte compute-netwerken, meestal verbonden met GPU-clusters voor training, inferentie of evaluatie van modellen. Dit omvat vaak grote overdrachten tussen enkele, strategische punten.

Waarom is AI-verkeer moeilijker te voorspellen?
Omdat het afhankelijk is van trainingscycli, dataset-updates, beschikbaarheid van clusters en werkvensters. Het kan wekenlang onder de radar blijven en plotseling exploderen bij grote gegevensmobilisaties.

Wat is het verschil tussen AI-verkeer en CDN-verkeer?
CDN-verkeer distribueert content naar veel gebruikers en bestemmingen, terwijl AI-verkeer zich richt op grote overdrachten tussen opslag en computing, met een beperkt aantal eindpunten en hoge bandbreedte.

Waar moeten AI-bedrijven rekening mee houden?
Bij het plannen van data-opslag, compute-locaties, bandwidth-behoeften, transferkosten en private interconnecties of nabije regio’s voor hun clusters. Een goede infrastructuur vereist een integrale benadering van data, netwerk en kosten.

Scroll naar boven