De digitale uitgeversindustrie past zich al jaren aan ingrijpende veranderingen aan in de manier waarop gebruikers informatie ontdekken, lezen en delen. Maar de nieuwste uitdaging kan wel eens een van de meest delicate zijn: de opkomst van AI-bots die content crawlen, kopiëren, samenvatten en hergebruiken, zonder dat dit altijd leidt tot bezoekers, abonnees of inkomsten voor de media.
Dit is de belangrijkste waarschuwing uit het nieuwe rapport van Akamai over de uitgeverssector, dat een zorgelijk scenario schetst voor kranten, digitale tijdschriften en informatiesites. Volgens het bedrijf is de activiteit van AI-bots die zij categoriseerde in 2025 met 300% gestegen, en heeft de mediasector — dat video, sociale media en publishing omvat — al een aandeel van 13% in dat verkeer, slechts na e-commerce. Binnen dat segment vormen uitgevers de grootste groep.
Het probleem is niet meer alleen dat je minder wordt gelezen
Het rapport presenteert een ongemakkelijke waarheid voor elke digitale media: content blijft waardevol, maar steeds meer gebruikers consumeren het zonder daadwerkelijk de website te bezoeken waar het is gepubliceerd. In plaats van via Google te zoeken, door koppen te navigeren en een volledig artikel te lezen, blijven veel gebruikers hangen bij de AI-gegenereerde antwoorden, of dat nu in een chatbot, een conversatiezoeker of een realtime informatiegids is.
Akamai stelt dat deze dynamiek de economische fundamenten van digitale publishing ondermijnt. Het gaat niet alleen om een afname van klikken. Het beïnvloedt ook abonnementsmodellen, advertentie-inkomsten, merkzichtbaarheid en de capaciteit om eigen content te monetariseren. Het rapport citeert gegevens van TollBit waaruit blijkt dat AI-chatbots in het vierde kwartaal van 2024 ongeveer 96% minder referral-verkeer genererden dan traditioneel Google-zoekverkeer. Daarnaast herinnert het ook aan een studie van Pew Research Center uit 2025, waaruit bleek dat gebruikers slechts ongeveer 1% van de keren op bronnen in AI-samenvattingen klikken.
Deze verandering heeft ernstige implicaties. Als lezers voldoende samenvattingen krijgen zonder de website te bezoeken, verliest de uitgever advertentie-impressies, inschrijvingen, conversies naar abonnementen en directe interactie met de doelgroep. Met andere woorden: AI verandert niet alleen hoe informatie wordt verspreid, maar ook wie de economische waarde van die informatie verovert.
Uitgevers centraal in geautomatiseerd schrapen
Een van de opvallendste gegevens uit het rapport is dat, binnen de mediabranche, uitgevers zo’n 40,1% van alle AI-botactiviteit uitmaken, zoals door Akamai gecategoriseerd. Ze vormen dus het voornaamste doelwit van dit soort geautomatiseerd verkeer binnen de contentindustrie. De logica is duidelijk: journalisten en uitgevers publiceren nieuwe, waardevolle, actuele en zoekklare informatie die modellen kan voeden, snelle antwoorden mogelijk maakt en AI-zoekmachines triggert.
Het rapport gaat ook in op de soorten bots die deze ecosystemen het meest intensief aanvallen. De zogeheten AI training crawlers blijven de meest voorkomende: ze crawlen grote hoeveelheden data om AI-modellen te trainen. Maar Akamai waarschuwt dat AI fetchers mogelijk nog schadelijker zijn voor media, omdat ze content in realtime ophalen om specifieke vragen van gebruikers te beantwoorden. En wanneer content snel aan waarde verliest — zoals bij breaking news of urgent nieuws — kan dat directe impact hebben op bezoekersaantallen en inkomsten.
In de tweede helft van 2025 vertegenwoordigden crawlers voor training ongeveer 63% van de AI-botactiviteit gericht op media, terwijl fetchers goed waren voor 24%. Wat relevant is, is dat binnen die fetchers, 43% van de activiteit zich op publishing richtte. Met andere woorden: de directe dreiging komt niet alleen van modeltraining, maar vooral van systemen die live content raadplegen en samenvatten voordat de gebruiker de originele site bezoekt.
Akamai meldt ook dat OpenAI de grootste speler was in het genereren van AI-botverkeer richting mediabedrijven in deze periode, en dat 40% van alle verzoeken van OpenAI binnen dat segment specifiek naar uitgevers gingen. Samen met OpenAI tonen ook bedrijven als Meta en ByteDance zich als belangrijke actoren die AI-agenten inzetten met grote impact op de sector.
Hogere kosten, minder controle en merkschade
Het rapport blijft niet steken in het verkeer. Het benadrukt ook dat deze bots de infrastructuurkosten verder opvoeren. Als duizenden of miljoenen geautomatiseerde verzoeken worden gedaan om content te extraheren, resulteert dat in hogere uitgaven aan servers, CDN, cloudoplossingen en beveiliging. De mediabedrijven verliezen niet alleen potentieel inkomen, maar betalen ook meer om content te leveren aan systemen die de content hergebruiken buiten hun directe controle.
Daarnaast speelt reputatie een grote rol. Akamai wijst erop dat artikelen, koppen en rapportages kunnen worden gekopieerd en gerepliceerd op aggregatieplatformen, dubious pages en platforms die de herkomst van de content verzwijgen. Als de bron wordt verschoven of niet wordt erkend, daalt de autoriteit van het merk en de relatie met de lezer krijgt er schade van.
Niet alles blokkeren of alles toelaten
Een van de meest nuttige aanbevelingen uit het rapport is dat er geen eenvoudige oplossing bestaat. Akamai raadt af om alle AI-bots ongericht te blokkeren. Pragmatisch gezien kunnen sommige bots namelijk onderdeel worden van licentieovereenkomsten of nieuwe manieren van monetiseren. Het blindelings blokkeren zonder inzicht in wie toegang krijgt, waarom en onder welke voorwaarden, kan een strategisch dwaalspoor zijn.
In plaats daarvan stelt het bedrijf een selectieve aanpak voor. Klanten kiezen vaak voor drie hoofdmethoden: deny (toestaan of blokkeren), tarpit (vertraging/afremming) en delay (bewuste vertraging). Momenteel is deny de populairste keuze, gevolgd door tarpit en delay. Veel organisaties beginnen met observatie en classificatie van traffic voordat ze ingrijpen. Een voorbeeld uit het rapport toont dat één case in staat was 97% van de AI-botverzoeken te bedienen door gebruik te maken van tarpit in plaats van volledige blokkering.
Bovendien opent het rapport de deur voor betalings- en verificatiemodellen voor geautomatiseerde contenttoegang. Initiatieven zoals Skyfire en TollBit worden voorgesteld als partners om bepaalde vormen van scraping om te zetten in toegangscontrole, traceerbaarheid en potentieel verdienmodel. Ook worden frameworks zoals Really Simple Licensing (RSL) genoemd, die bedoeld zijn om duidelijkere richtlijnen te scheppen voor het verantwoord gebruik van digitale content door AI-systemen.
De kernboodschap is duidelijk: uitgevers hebben nog steeds tijd om zich te verdedigen, maar ze moeten actief gaan beheren in plaats van af te wachten. De strijd is niet alleen meer om goede content te maken, maar ook om te bepalen wie die content mag gebruiken, onder welke voorwaarden en tegen welke vergoeding.
Veelgestelde vragen
Waarom schaden AI-bots zo massaal voor digitale media?
Omdat ze content kunnen lezen, extraheren en samenvatten zonder dat de gebruiker op de originele website terechtkomt. Dit leidt tot minder verkeer, lagere advertentie-inkomsten, minder inschrijvingen en minder merkzichtbaarheid.
Wat is het verschil tussen een training-crawler en een AI-fetcher?
Een training-crawler verzamelt grote hoeveelheden data voor het trainen van AI-modellen. Een AI-fetcher haalt content in realtime op om specifieke vragen van gebruikers te beantwoorden in chatbots, zoekmachines en assistenten.
Welk percentage van het AI-botverkeer in media richt zich op uitgevers?
Volgens Akamai concentreerden uitgevers zo’n 40,1% van de AI-botactiviteit in de sector media in de tweede helft van 2025.
Wat kunnen media doen om hun content te beschermen tegen AI-bots?
Ze kunnen het verkeer monitoren en classificeren, selectieve maatregelen nemen zoals deny, tarpit of delay, bots verifiëren en overwegen om licentie- of verdienmodellen te gebruiken in plaats van alles te blokkeren zonder analyse.
vía: Akamai
