Claude AI Verandert de Regels: Modellen Worden Getraind met Gebruikersdata Tenzij Je Je Uitsluit

Anthropic in het oog van de storm: Wat betekent de nieuwe privacybeleid voor gebruikers?

In de snel veranderende wereld van technologie heeft kunstmatige intelligentie (AI) de manier waarop we werken, communiceren en leren ingrijpend veranderd. Maar achter elke technologische vooruitgang ligt een steeds branderiger debat: wat gebeurt er met de gegevens van de gebruikers? Anthropic, de ontwikkelaar van Claude AI, staat nu in de schijnwerpers na de aankondiging van een wijziging in hun privacybeleid en gebruiksvoorwaarden.

Vanaf 28 september 2025 zullen alle gesprekken met Claude worden gebruikt om hun AI-modellen te trainen. Dit gebeurt standaard, tenzij gebruikers handmatig de optie in de privacy-instellingen uitschakelen.

Van privacybelofte naar strategiewijziging

Tot nu toe onderscheidde Anthropic zich van andere grote bedrijven zoals OpenAI of Google door te beloven dat Claude AI de interacties van zijn gebruikers niet gebruikte als trainingsmateriaal. Deze belofte is nu verbroken.

Volgens de onderneming is de wijziging bedoeld om “de verdedigingen” tegen misbruik, fraude en de generatie van schadelijke inhoud te versterken, terwijl de kwaliteit en veiligheid van de modellen wordt verbeterd. De manier waarop dit wordt geïmplementeerd – een opt-out systeem waarbij de gebruiker zich handmatig moet uitsluit – roept echter wantrouwen op.

Hoe werkt de opt-out?

Het nieuwe proces is eenvoudig maar onopvallend. gebruikers moeten naar de privacy-instellingen gaan en het vakje “Je kunt helpen Claude te verbeteren” uitschakelen, dat standaard is ingeschakeld.

Wie dit niet doet, ziet zijn gegevens gedurende een periode van maximaal vijf jaar worden geregistreerd en beschikbaar zijn voor Anthropic. Deze ongewoon lange bewaartermijn is een van de meest bekritiseerde aspecten door privacy-experts.

Wie worden er door de wijzigingen geraakt?

Het nieuwe beleid is van toepassing op de plannen Claude Free, Pro en Max. Alleen de zakelijke en op commerciële basis aangeboden diensten, zoals Claude for Work, Claude Gov en Claude for Education en integraties via API op derde partijen, zoals Amazon Bedrock en Google Cloud Vertex AI, blijven buiten beschouwing.

In de praktijk zullen miljoenen individuele en professionele gebruikers worden getroffen, tenzij ze expliciet kiezen voor uitsluiting.

Een stap terug in gegevensbescherming?

De beweging van Anthropic doet denken aan soortgelijke veranderingen door andere technologiebedrijven die verbeteringen onder het mom van veiligheid hebben doorgevoerd. Google en Microsoft zijn beschuldigd van het “stilletjes” integreren van AI-functies in hun diensten, waarbij actieve toestemming vaak ontbreekt.

Volgens experts in het digitale recht is het probleem niet dat bedrijven hun modellen verbeteren, maar dat ze dit doen ten koste van de privacy en autonomie van gebruikers. “Opt-out systemen zijn gebaseerd op de inactiviteit van de gemiddelde gebruiker, die de kleine lettertjes niet leest of niet genoeg technische kennis heeft om de instellingen aan te passen,” legt een Europese data consultant uit.

Bovendien opent de vijfjarige bewaartermijn een nieuw front. “Gegevens zo lang bewaren vergroot het risico op lekken of misbruik, zelfs als er anonimiseringsprocessen worden toegepast,” voegt de specialist toe.

Wat zegt Anthropic?

De onderneming verzekert dat het de gegevens niet verkoopt aan derden en dat het automatische tools gebruikt om gevoelige informatie te filteren of te verdoezelen. “Ons doel is de veiligheid en bruikbaarheid van Claude te versterken,” stellen zij in hun verklaringen.

Toch overtuigt dit argument niet iedereen. In een context van groeiend wantrouwen jegens grote technologiebedrijven wordt dit gebaar geïnterpreteerd als een stap terug in de richting van een ethische en transparante AI.

Het contrast met andere actoren

De discussie komt niet in isolatie. Terwijl Anthropic wijzigingen doorvoert die veel mensen als een inbreuk op de privacy beschouwen, heeft de alternatieve browser Vivaldi onlangs aangekondigd dat het geen generative AI-functies in zijn software zal toevoegen. Volgens CEO Jon von Tetzchner zou dit betekenen dat “actief webverkennen verandert in passieve consumptie”.

De vergelijking is onvermijdelijk: sommige bedrijven versterken hun toewijding aan privacy, terwijl andere besluiten de informatie van hun gebruikers te monetiseren als brandstof voor AI.

De juridische achtergrond: een mijnenveld

Deze koerswijziging komt in een tijd van verhoogde regelgeving. In de Europese Unie verplicht de inwerkingtreding van de AI-wet en de al aanwezige AVG bedrijven om het gebruik van persoonsgegevens te rechtvaardigen en geïnformeerde toestemming te garanderen.

In de Verenigde Staten, waar geen zo strikt federaal kader bestaat, is de druk van rechtszaken tegen bedrijven zoals OpenAI, Meta of Anthropic een indicatie dat de rechtbanken mogelijk belangrijke precedenten zullen stellen in de toekomst.

Als blijkt dat het bedrijf in het verleden boeken of inhoud zonder licentie heeft gebruikt — zoals al in andere gevallen is aangeklaagd — kan deze nieuwe stap meer munitie opleveren voor critici.

Innovatie of onnodig risico?

Het dilemma is duidelijk: kunstmatige intelligentie heeft gegevens nodig om te verbeteren, maar die gegevens behoren toe aan de mensen die ze genereren. Elk bericht, elk gesprek en elk document dat met een chatbot wordt gedeeld, maakt deel uit van het digitale leven van een gebruiker.

Voor sommigen is de beslissing van Anthropic een logische stap in de race om krachtigere modellen te ontwikkelen. Voor anderen is het een gevaarlijke opgave van individuele privacy.

Wat duidelijk is, is dat de strijd om de controle over gegevens de evolutie van AI in de komende jaren zal bepalen. Wat vandaag opt-out is, kan morgen een onontkoombare verplichting worden.

Veelgestelde vragen (FAQ)

1. Kan ik voorkomen dat Claude mijn gegevens gebruikt voor het trainen van zijn modellen?
Ja. Je moet naar de privacy-instellingen gaan en handmatig de standaard geactiveerde optie uitschakelen.

2. Hoe lang bewaart Anthropic de gegevens van gebruikers?
Tot vijf jaar, volgens het nieuwe privacybeleid.

3. Welke plannen van Claude zijn getroffen door deze wijziging?
Alle individuele plannen: Free, Pro en Max. Zakelijke plannen of integraties via API blijven uitgesloten.

4. Welke risico’s zijn verbonden aan de nieuwe policy?
Je gesprekken kunnen gedurende een langere periode worden opgeslagen en gebruikt voor het trainen van de AI. Hoewel Anthropic de informatie zegt te anonimiseren, bestaat er een risico op lekken of ongepaste toepassingen.

Scroll naar boven