Google wijzigt zijn AI-principes en heft het verbod op de ontwikkeling van wapens met kunstmatige intelligentie op.

Aquí tienes la traducción al neerlandés:

In een recente update van zijn principes voor kunstmatige intelligentie (AI) heeft Google een van de meest relevante beperkingen uit zijn vorige beleid verwijderd: het expliciete verbod op het ontwikkelen van wapens of technologieën die bedoeld zijn om schade aan mensen te veroorzaken. Volgens een analyse van Nieuws Kunstmatige Intelligentie impliceert de wijziging het verwijderen van een sleutelsectie uit het document, wat vragen oproept over de ethische houding van het bedrijf ten opzichte van het gebruik van AI in militaire en surveillancesectoren.

De wijziging van het beleid van Google past binnen een tendens in de technologiesector. In 2023 paste OpenAI ook zijn standpunt aan door bepaalde beperkingen in zijn regelgeving te verwijderen voordat het een overeenkomst met het Pentagon bekendmaakte. Nu heeft Google zijn principes voor AI bijgewerkt en een specifieke categorie verwijderd die expliciet de toepassingen beschreef die onder geen enkele omstandigheid ontwikkeld zouden worden.


Google verwijdert de lijst met verboden toepassingen van zijn AI

Tot onlangs omvatte het AI-beleid van Google een sectie met de titel «AI-toepassingen die we niet zullen aanpakken», waarin het bedrijf expliciet de toepassingen beschreef die het zou vermijden in zijn technologische ontwikkelingen. Deze lijst bevatte:

  • Technologieën die aanzienlijke schade kunnen veroorzaken, tenzij de voordelen de risico’s ver uitgebreid overtreffen.
  • De ontwikkeling van wapens of systemen waarvan de primaire doelstelling is om schade aan mensen toe te brengen.
  • Massale surveillancesystemen die internationale normen schenden.
  • Toepassingen die indruisen tegen de mensenrechten en het internationale recht.

Met de recente update is deze sectie volledig verdwenen. In plaats daarvan vermeldt de nieuwe versie van de principes van Google alleen dat het bedrijf zal werken om «ongewenste of schadelijke resultaten te beperken» en «zich te aligneren met geaccepteerde principes van het internationale recht en de mensenrechten», maar zonder expliciete beperkingen op de ontwikkeling van AI voor militaire toepassingen vast te stellen.


Waarom heeft Google deze wijziging doorgevoerd?

De aanpassing in het AI-beleid van Google vindt plaats tegen de achtergrond van een toenemend belang van de technologiesector in overheids- en militaire contracten. Hoewel het bedrijf eerder had vermeden om betrokken te raken bij projecten met het Amerikaanse Ministerie van Defensie, heeft dit in de afgelopen jaren zijn deelname aan aanbestedingen voor technologische infrastructuur voor defensie- en veiligheidsorganisaties vergroot.

Project Maven en het precedent van Google

In 2017 werkte Google samen met het Pentagon aan het Project Maven, een initiatief dat AI gebruikte om beelden van drones te verwerken en te helpen bij het identificeren van doelwitten in conflictgebieden. De onthulling van deze overeenkomst leidde tot massale protesten van werknemers, die erop wees dat de technologie van Google voor militaire doeleinden werd gebruikt. Als gevolg hiervan besloot het bedrijf om het contract niet te verlengen en herhaalde het zijn inzet om geen AI voor wapens te ontwikkelen.

Echter, de wijziging in de AI-principes van Google suggereert een mogelijke opening voor dit soort samenwerkingen in de toekomst. In de afgelopen jaren heeft het bedrijf samengewerkt met regeringen aan projecten van cloudinfrastructuur, data-analyse en cybersecurity, wat zou kunnen wijzen op een flexibeler strategie ten opzichte van zijn deelname aan defensie.


De reactie van Google en het debat over de ethiek van AI

Geïnterviewd over deze wijziging in zijn beleid, antwoordde Google met een blogpost geschreven door James Manyika, senior vice-president, en Demis Hassabis, CEO van Google DeepMind. In het document herhaalt het bedrijf zijn inzet voor de verantwoordelijke ontwikkeling van AI, maar vermijdt het om direct de verwijdering van de beperking op wapens te vermelden.

“We erkennen de snelheid waarmee de onderliggende technologie en het debat over de vooruitgang, implementatie en het gebruik van AI zullen blijven evolueren. We zullen onze aanpak blijven aanpassen en verfijnen naarmate we allemaal in de loop van de tijd leren.” – Google AI

verantwoordelijk beheer van AI benadrukt, behandelt het niet de reden achter het verwijderen van het verbod op militaire toepassingen. Dit heeft twijfels doen rijzen over of het bedrijf zich voorbereidt op nieuwe overeenkomsten met het Pentagon of dat het simpelweg heeft gekozen voor een minder beperkende houding om conflicten bij toekomstige onderhandelingen te vermijden.


Gevolgen van de wijziging in het beleid van Google

De aanpassing in de AI-principes van Google kan verschillende gevolgen hebben op korte en lange termijn:

1. Meer flexibiliteit voor militaire contracten

De verwijdering van de beperking tegen de ontwikkeling van wapens suggereert dat Google toekomstige overeenkomsten met het Pentagon of andere regeringen zou kunnen overwegen in AI-projecten met militaire toepassingen. Hoewel dit niet noodzakelijkerwijs de ontwikkeling van dodelijke wapens impliceert, opent het wel de deur naar samenwerkingen op het gebied van data-analyse, cybersecurity en militaire automatisering.

2. Mogelijke reactie van werknemers

De antecedent van het Project Maven toonde aan dat de werknemers van Google een kritische houding hebben ten opzichte van de deelname van het bedrijf aan militaire initiatieven. Als Google verdergaat met nieuwe contracten met het Ministerie van Defensie, is het waarschijnlijk dat het opnieuw wordt geconfronteerd met interne protesten en debatten over de ethiek van AI.

3. Regulering en overheidstoezicht

Naarmate AI een strategisch element wordt in defensie en nationale veiligheid, is het waarschijnlijk dat overheden strengere reguleringen omtrent het gebruik zullen opleggen. Zowel in de VS als in de Europese Unie worden momenteel normen besproken om de ontwikkeling en toepassing van AI in militaire omgevingen te reguleren, wat gevolgen kan hebben voor Google en andere technologiebedrijven.

4. Impact op de concurrentie in de sector

Als Google, dat eerder weigerde samen te werken met de militaire sector, nu zijn principes wijzigt, kunnen andere technologiebedrijven zoals Microsoft, Amazon en OpenAI dezelfde weg inslaan. Dit zou een nieuwe fase van concurrentie op de markt voor AI voor defensie en veiligheid openen, met miljoenencontracten in het spel.


Conclusie: Een strategische wijziging met lange termijn gevolgen

De verwijdering van de beperking op de ontwikkeling van AI voor wapens in het beleid van Google markeert een strategische wijziging die zijn rol in de defensiesector zou kunnen herdefiniëren. Hoewel het bedrijf nog steeds het respect voor mensenrechten en internationaal recht benadrukt, heeft de omissie van een expliciet verbod bezorgdheid gewekt in de technologische gemeenschap en onder experts in AI-ethiek.

Op een moment waarop kunstmatige intelligentie een sleuteltool voor mondiale veiligheid aan het worden is, kan deze beslissing van Google de houding van andere grote technologiebedrijven en de evolutie van AI in de militaire sfeer beïnvloeden. Nu is de aandacht gevestigd op of het bedrijf nieuwe contracten met het Pentagon zal aankondigen en hoe zijn werknemers reageren op deze wijziging.

Referentie: Google AI en oude versie van de Google AI-principes in webarchive

Scroll naar boven