Warren Buffett waarschuwt voor oplichting met AI als een groeiende industrie.

De populaire Amerikaanse investor Warren Buffett heeft recentelijk in een interview zijn bezorgdheid uitgesproken over de opkomst van AI, een technologie die hij “niet begrijpt” maar waarvan het potentieel voor fraude hem duidelijk voor ogen staat. Volgens Buffett staat de industrie van door AI aangedreven fraude op het punt om explosief te groeien, en dat gezegd door iemand die zijn leven heeft gewijd aan het voorspellen van het succes van andere bedrijven, weegt zwaar.

Het is een feit dat het potentieel van AI om allerlei inhoud na te bootsen angstaanjagend is. De introductie van ChatGPG onthulde voor het eerst de mogelijkheid van AI om menselijk gedrag na te bootsen met een nauwelijks te onderscheiden nauwkeurigheid, in dit geval bij het schrijven van teksten. Er zijn steeds meer teksten in omloop die volledig door ChatGPT zijn geschreven, terwijl menselijke creativiteit naar de achtergrond verschuift.

De mogelijkheid van ChatGPT om binnen enkele seconden samenhangende teksten te creëren, geeft cyberaanvallers en fraudeurs de mogelijkheid om ski in bijna elke taal te plegen zonder zelfs maar te weten hoe ze het moeten spreken. Dit resulteert in een hele serie frauduleuze e-mails of smishing-berichten die veel geloofwaardiger zijn dan eerdere fraudepogingen, waardoor hun slagingskans veelvoudig toeneemt.

Het gevaar van ‘deepfakes’

Maar kunstmatige intelligentie beperkt zich niet alleen tot de teksten van ChatGPT. In de afgelopen maanden duiken steeds meer valse foto’s op, gemaakt met AI-applicaties zoals Midjourney of DALL-E. Deze foto’s worden gebruikt voor propagandadoeleinden, desinformatie of digitale fraude, en het ergste is dat ze heel gemakkelijk kunnen worden gegenereerd aan de hand van een simpele tekstbeschrijving.

Malafide apps maken het zelfs mogelijk om een foto van een echt persoon te gebruiken en valse afbeeldingen of video’s te creëren waar die persoon verschijnt in seksuele houdingen, iets dat in Spanje tal van problemen op verschillende scholen heeft veroorzaakt. Vrouwen, en vooral adolescenten, zijn de voornaamste slachtoffers van dit soort ‘deepfakes’, die soms verwoestende gevolgen hebben of zelfs kunnen leiden tot zelfmoord.

Nog verontrustender is dat kunstmatige intelligentie in staat is om video’s te creëren die ook de stem van de afgebeelde personen dupliceren, wat betekent dat er valse video’s gegenereerd kunnen worden van publieke figuren zoals Joe Biden of Pedro Sánchez die dingen zeggen die ze nooit hebben gezegd. Dit baart specialisten zorgen omdat er een echte vloedgolf aan ‘deepfake’ video’s wordt verwacht in de maanden voor elke electorale periode, wat invloed kan hebben op de uitkomst van de stemming.

Fraude kan gezinnen treffen

Warren Buffett noemt zelfs de mogelijkheid dat ‘deepfakes’ gebruikt worden om iemand te frauderen door middel van het vervalsen van video’s van hun familieleden. Het uiterlijk van iemands kinderen zou gedupliceerd kunnen worden om video’s te versturen waarin om geld wordt gevraagd. Deze fraude staat bekend als ‘het familielid in nood’, en tot nu toe werd het gedaan door het versturen van tekstberichten met een nagemaakte profielfoto.

Het beschermen van onze private gegevens tegen toegang door cyberaanvallers wordt dan een essentiële maatregel van cyberveiligheid als we het risico willen vermijden om slachtoffer te worden van dergelijke fraude. Cyberaanvallers hebben monsters van de stem of het gezicht van een persoon nodig om dergelijke valse video’s te kunnen creëren, dus het is noodzakelijk om het aantal persoonlijke foto’s en video’s dat we delen op sociale netwerken tot een minimum te beperken.

Op dezelfde manier zal het gebruik van een VPN ons helpen om het risico van datalekken door man-in-the-middle-aanvallen te verminderen dankzij het robuuste encryptiesysteem. En natuurlijk is het essentieel om onze apparaten te beveiligen met een bijgewerkte antivirus om ons te beschermen tegen malware. Het gevaar van ‘deepfakes’ is zeer reëel, dus moeten we het belang van sterke cyberveiligheid niet onderschatten.

Het gebrek aan regulering is een probleem

Hoewel kunstmatige intelligentie een enorm potentieel heeft om de mensheid te helpen, blijft het een buitengewoon krachtige tool die voor schadelijke doeleinden kan worden gebruikt. En het probleem is dat het door geen enkepution is.malink”>Europees Parlement strikte regelgevingen rondom AI zou vaststellen, zouden deze niet veel zin hebben als de AI’s van buiten Europa opereren.

Bij gebrek aan toereikende regelgevende maatregelen en, vooral, een grote mondiale afspraak om kunstmatige intelligentie in toom te houden, kunnen we een aanzienlijke toename van hacks en fraude verwachten waarbij AI een centrale rol speelt. Als we niet het slachtoffer willen worden van dergelijke cyberaanvallen, is het het beste om strikt te controleren wat we op het net publiceren en waakzaam te blijven voor mogelijke valse inhoud.

Scroll naar boven