Kunstmatige intelligentie verandert niet alleen de manier waarop toepassingen worden geprogrammeerd, klanten worden bediend of inhoud wordt beoordeeld. Het begint ook de juridische grenzen van arbeidsautomatisering te herdefiniëren. Een rechtbank in Hangzhou heeft een werknemer gelijk gegeven die werd ontslagen nadat zijn bedrijf had beweerd dat zijn functie door AI kon worden vervangen, een beslissing die plaatsvindt op het moment dat veel technologiebedrijven generatieve modellen en agents gebruiken om repetitieve menselijke taken te verminderen.
Dit geval maakt niet van China een land waar ontslagen door technologische veranderingen onmogelijk zijn. De interpretatie is subtieler: een bedrijf kan het gebruik van AI niet presenteren als een externe, onvoorspelbare en onvermijdelijke oorzaak die op zichzelf een salarisverlaag of contractbeëindiging rechtvaardigt. Voor de technologiesector brengt de uitspraak een ongemakkelijke maar noodzakelijke gedachte: automatisering is een zakelijke beslissing, en de kosten mogen niet altijd op de werknemer worden afgewenteld.
De Zhou-zaak: wanneer de mens de vervanger traint
De werknemer, geïdentificeerd als Zhou, was 35 jaar oud en werkte bij een technologisch bedrijf in Hangzhou, waar hij taken verrichtte op het gebied van kwaliteitscontrole van AI-modellen. Zijn rol bestond uit het beoordelen van interacties tussen gebruikers en AI-systemen, het controleren van de kwaliteit van de antwoorden, het filteren van fouten en het opsporen van inhoud die mogelijk niet voldeed aan interne of wettelijke normen. Met andere woorden, hij vervulde een van die menselijke taken die cruciaal zijn geweest voor het verbeteren van producten gebaseerd op generatieve modellen.
Het bedrijf voerde aan dat het project waaraan hij werkte werd beïnvloed door de evolutie van AI en stelde voor hem te herplaatsen in een lagere functie met een salarisverlaging van 25.000 naar 15.000 yuan per maand. Zhou wees het voorstel af. Het bedrijf beëindigde uiteindelijk diens contract, en het geval kwam voor arbitrage, de eerste rechterlijke instantie en hoger beroep. In alle fasen kreeg de werknemer steun.
De rechtbank oordeelde dat het bedrijf onwettig was ontslagen en bevestigde een vergoeding van meer dan 260.000 yuan. De kern ligt in de interpretatie van de Chinese arbeidswetgeving: het bedrijf probeerde de automatisering te rechtvaardigen als een “substantiële wijziging van de objectieve omstandigheden” waardoor het onmogelijk was het contract voort te zetten, maar de rechters accepteerden dat argument niet.
De reden is relevant voor elk bedrijf dat AI inzet in interne operaties. Het introduceren van een model om kosten te besparen, productiviteit te verbeteren of een deel van een functie te vervangen, is niet vergelijkbaar met een natuurramp, een onverwachte regulatoire verandering of overmacht. Het is een zakelijke keuze. Het kan legitiem en zelfs noodzakelijk vanuit competitief oogpunt zijn, maar het maakt een menselijke baan niet automatisch overbodig zonder garanties.
Automatisering als strategische zakelijke beslissing
De uitspraak van Hangzhou sluit aan bij een realiteit die techbedrijven kennen: AI wordt geïntegreerd in workflows die voorheen afhankelijk waren van menselijke operators: gegevensreview, contentmoderatie, technische ondersteuning, ticketclassificatie, rapportage, programmeren, kwaliteitscontrole, vertaling, documentatie en incidentanalyse.
In veel gevallen worden deze systemen niet uit het niets geïntroduceerd. Ze worden getraind, aangepast en geëvalueerd met menselijk werk. Werknemers documenteren processen, corrigeren uitkomsten, bouwen voorbeelden, labelen data, detecteren fouten en helpen bij het omzetten van vage taken in een stroom die een model kan herhalen. De paradox is duidelijk: een deel van het personeel draagt bij aan de creatie van het systeem dat later wordt gebruikt om de degradatie of het ontslag te rechtvaardigen.
Voor een technologisch medium moet de Zhou-zaak ook worden gelezen vanuit het perspectief van AI-governance. Het automatiseren van een positie betekent niet alleen een API aansluiten, een agent implementeren of een model integreren in een intern dashboard. Het vereist het herontwerpen van processen, het aanpassen van verantwoordelijkheden, het wijzigen van prestatie-indicatoren en het bepalen van wat er met de mensen gebeurt die deze workflow voorheen ondersteunden prior to automatisering.
Daar ligt het frictiepunt. Veel bedrijven verkopen AI als een productiviteitsboost, maar beheren het als arbeidsvervanging. Ze praten over “copiloten” terwijl ze personeelsreductions plannen. Ze vragen hun teams om taken te documenteren om het systeem te verbeteren, maar bieden niet altijd training, interne mobiliteit of deelname in de waarde die wordt gegenereerd. De Chinese uitspraak maant niet af van technologie, maar herinnert eraan dat efficiëntie geen arbeidsverplichtingen wegneemt.
Een signaal voor HR, product en compliance
Tot nu toe lag de meeste discussie over AI en werk op het gebied van algoritmische biases, arbeidscontroles of het gebruik van geautomatiseerde systemen in selectietrajecten. Dat alles is belangrijk, maar de Hangzhou-zaak opent een andere lijn: wat gebeurt er wanneer een bedrijf AI gebruikt als operationele basis om een specifieke functie te verwijderen?
De reactie van de rechter wijst op een praktische doctrine. Ten eerste moet het bedrijf de reorganisatie onderbouwen met meer dan alleen “AI kan dat nu”. Ten tweede moeten functies en salarissen redelijk en onderhandelbaar zijn. Ten derde moeten opleidingen en interne herplaatsing worden overwogen voordat de volledige kost bij de werknemer wordt gelegd. Ten vierde mag de salarisverlaging niet worden voorgesteld als een technologische modernisering als het in wezen druk uitoefent om de werknemer te laten vertrekken.
Voor HR- en compliance-afdelingen heeft dit directe implicaties. Automatiseringsprojecten moeten ook een arbeidsimpactanalyse bevatten, niet alleen een kosten-batenanalyse. Als een bedrijf agents implementeert voor klantenservice, QA of interne ondersteuning, moet worden vastgesteld welke taken verdwijnen, welke veranderen, welke profielen opnieuw worden getraind, welke metrics worden gebruikt en welke alternatieven worden geboden.
In organisaties met uitgebreide AI-inzet is deze governance-laag net zo belangrijk als modelbeveiliging of gegevensbescherming. Een systeem kan technisch correct zijn en toch arbeidsconflicten veroorzaken als de uitrol eenzijdig de omstandigheden verslechtert. Het risico ligt niet alleen in individuele rechtszaken; het betreft ook het verlies van vertrouwen van teams die het gevoel krijgen dat samenwerken met automatisering hun eigen vertrek versnelt.
China, Verenigde Staten en Europa: drie verschillende benaderingen
De internationale contrasten zijn opvallend. In de Verenigde Staten geldt het principe van “employment at will”, dat toestaat te ontslaan zonder specifieke reden, tenzij er sprake is van discriminatie of onrechtmatige vergeldingsmaatregelen. Er is geen federale norm die het vervangen van een werknemer door AI verbiedt.
Europa beweegt zich in een andere richting, maar heeft dit punt nog niet volledig opgelost. De European AI-verordening classifyert bepaalde systemen die worden gebruikt in werkgelegenheid als hoog-risico, wat leidt tot controles, documentatie, risicobeheer en menselijke supervisie. Maar de specifieke bescherming tegen ontslagen vanwege automatisering blijft afhankelijk van nationale arbeidswetgeving, collectieve onderhandelingen en jurisprudentie.
China, althans in deze en gelijksoortige zaken in Beijing en Guangzhou, schetst een grens vanuit de klassieke arbeidsrechtelijke invalshoek: AI is niet op zichzelf een externe objectieve oorzaak. Het is een technologie die een bedrijf kiest te gebruiken voor concurrentie, kostenbesparing of herstructurering. Daarom moet het bedrijf een deel van de overgangskosten dragen.
Deze aanpak zou gevolgen kunnen hebben voor de markt. Als rechtbanken deze interpretatie onderschrijven, zullen Chinese bedrijven meer geneigd zijn om plannen voor omscholing, herplaatsing en training te ontwikkelen vóórdat functies worden geautomatiseerd. Ook kan dit leiden tot betere onderbouwingen van AI-projecten door hun organisatorische impact. In plaats van automatisering te verkopen als een directe kostenbesparing, zullen bedrijven rekening moeten houden met de kosten van aanpassing, compensatie en verandermanagement.
De werkelijke kosten van mensen vervangen door AI
De zaak brengt ook een veelgebruikte veronderstelling ter discussie: dat AI altijd goedkoper is dan een werknemer. Bij eenvoudige en kleinschalige taken lijkt dat misschien het geval. Maar in realistische bedrijfsomgevingen ontstaan minder zichtbare kosten: infrastructuur, licenties, tokengebruik, integratie, menselijke supervisie, evaluatie, cyberbeveiliging, naleving van regelgeving, promptonderhoud, auditing, foutcorrectie en verantwoordelijkheid richting klanten.
Bovendien verwijderen veel AI-systemen niet volledig de menselijke arbeid, maar verplaatsen ze die. Een deel van de taken verdwijnt, een ander deel wordt toezicht, weer een ander vereist ingrijpen bij uitzonderingen, en weer een ander wordt onderhoud aan het systeem zelf. Als de recensie te snel plaatsvindt, kan het bedrijf operationeel kennisverlies lijden op het moment dat het die juist nodig heeft om de automatisering te valideren.
Voor de techsector is de les duidelijk. AI moet niet worden ingezet als goedkope vervanging zonder grondige procesherontwerp. Wanneer correct gebruikt, kan het teams vrijmaken van repetitieve taken, snellere responstijden verbeteren en kwaliteit verhogen. Fout gebruik kan de arbeidsvoorwaarden verslechteren, intern vertrouwen breken en fragiele systemen creëren die afhankelijk zijn van automatisering die niemand volledig begrijpt.
De Hangzhou-uitspraak stopt niet de komst van agents, copilots en geautomatiseerde workflows. Maar het stelt wel een vraag die elk bedrijf niet mag ontwijken: wie profiteert van de productiviteitswinst door AI, en wie betaalt de overgangskosten? Jarenlang was de impliciete reactie dat het bedrijf de besparingen plukt en de werknemer het risico draagt. Deze zaak suggereert dat die conclusie, ten minste in sommige rechtbanken, niet langer volstaat.
De volgende fase van AI in bedrijven zal niet alleen technisch zijn. Ze wordt organisatie-, juridisch en sociaal. Modellen worden beter, agents gaan meer taken doen en functies veranderen ingrijpend. Maar als automatisering is gebaseerd op werknemers die systemen trainen om later te worden weggestuurd zonder alternatief, is het probleem niet louter efficiëntie. Het is legitimiteit.
Veelgestelde vragen
Heeft China het ontslaan van werknemers vanwege AI verboden?
Niet algemeen. Wat is gebeurd, is dat Chinese rechtbanken hebben geoordeeld dat het gebruik van AI als enige reden voor degradatie, loonsverlaging of ontslag zonder voldoende objectieve oorzaak onwettig is.
Wat deed precies het bedrijf in de Zhou-zaak?
Het stelde voor Zhou, kwaliteitscontroleur van AI-modellen, te herplaatsen naar een lagere functie met een salarisverlaging van 25.000 naar 15.000 yuan per maand. Toen hij dat weigerde, werd hij ontslagen. De rechtbank gaf de werknemer gelijk.
Wat betekent dit voor technologiebedrijven?
Dat automatiseringsprojecten gepaard moeten gaan met arbeidsimpactanalyses, onderhandelingen, training, redelijke herplaatsing en documentatie. AI mag niet automatisch worden gebruikt als excuus voor personeelsreducties.
Kan een soortgelijke doctrine in Europa worden toegepast?
Dat hangt af van elk land. De EU reguleert bepaalde toepassingen van AI in arbeidsomstandigheden als hoog risico, maar de bescherming tegen ontslag door automatisering wordt vooral bepaald door nationale arbeidswetgeving, collectieve afspraken en jurisprudentie.
via: China verbiedt ontslagen wegens AI
