Noord-Koreaanse Arbeiders Gebruiken Real-Time Deepfakes om Ondernemingen te Infiltreren via Thuiswerken

Slimme Operatie Ontdekt: AI-Gegenereerde Identiteiten Omzeilen Wereldwijde Aanwervingsprocessen

Een nieuw rapport van Unit 42 van Palo Alto Networks onthult een verontrustende campagne van cyberinfiltratie die wordt geleid door IT-werknemers met banden met het regime van Noord-Korea. Deze groep maakt gebruik van real-time deepfake-technologieën om op afstand banen te verkrijgen bij bedrijven over de hele wereld. Het uiteindelijke doel? Het omzeilen van internationale sancties en het verkrijgen van toegang tot vertrouwelijke zakelijke omgevingen.

Een Nieuwe Grens in Digitale Sociale Engineering

Volgens het rapport creëert deze Noord-Koreaanse groep valse identiteiten door het toepassen van gezichtsvervangingstechnieken tijdens online sollicitatiegesprekken. Ze zijn in staat om meerdere kandidaten te simuleren vanaf één enkele computer. Met behulp van betaalbare hardware — in één geval een NVIDIA GTX 3070 GPU op een laptop van vijf jaar oud — lukte het een onervaren gebruiker om binnen iets meer dan een uur een functionele valse identiteit op te zetten.

Deze technologische toegankelijkheid verhoogt het risico voor organisaties, die geconfronteerd kunnen worden met beveiligingsinbreuken, datalekken en zelfs interne sabotage door door de staat gesponsorde actoren.

Technische Zwaktes van Deepfakes: Een Kans voor Detectie

Hoewel de deepfake-technologie snel is geëvolueerd, vertoont deze nog steeds bepaalde gebreken die kunnen worden gebruikt voor detectie. Het team van Unit 42 heeft enkele belangrijke indicatoren geïdentificeerd:

  • Tijdelijke inconsistenties: Snel hoofdbewegingen kunnen visuele artifacts veroorzaken vanwege problemen met gezichtskenmerkenvolging.
  • Afhandeling van occlusies: Wanneer een hand voor het gezicht passeert, faalt het systeem in het reconstrueren van het verborgen deel.
  • Verlichtingproblemen: Abrupte veranderingen in licht kunnen onthullen dat het om een gegenereerd gezicht gaat.
  • Ongelijke lipbewegingen: Kleine vertragingen tussen audio en lipbewegingen kunnen op manipulatie wijzen.

Strategieën om Risico’s te Verminderen

Deskundigen raden een gelaagde verdediging aan om aanwervingsprocessen te beschermen tegen deze opkomende bedreigingen. Enkele belangrijke aanbevelingen zijn:

Voor HR Teams:

  • Neem sollicitatiegesprekken op (met toestemming) voor later forensisch onderzoek.
  • Implementeer identificatieverificatieprocessen met levensdetectie.
  • Train interviewers om signalen van visuele manipulatie of desynchronisatie te herkennen.

Voor Beveiligingsteams:

  • Monitor verdachte IP-adressen of ongebruikelijke locaties.
  • Controleer de oorsprong van telefoonnummers (VoIP of virtueel).
  • Blokkeer het gebruik van virtuele camera’s of ongeautoriseerde manipulatsoftware.
  • Stel informatie-uitwisselingspartnerschappen op met andere bedrijven en overheidsinstanties.

Bovendien wordt aangeraden om graduele toegang tot systemen voor nieuwe medewerkers te implementeren en interne beleidslijnen tegen identiteitsfraude te versterken, inclusief protocollen en bewustwordingscampagnes over cyberbeveiliging.

Een Nieuwe Frontlijn in de Cyberoorlog

Dit fenomeen vertegenwoordigt niet alleen een vooruitgang in sociale-engineering technieken, maar ook een nieuwe manier voor Noord-Korea om economische beperkingen te omzeilen en via frauduleuze werkgelegenheid financiering te verkrijgen. Het manipuleren van sollicitatiegesprekken met behulp van deepfakes voegt een ongekende laag van complexiteit toe aan het selectieproces van talent.

In een steeds digitaler en gedecentraliseerd landschap moeten HR- en cybersecurity-afdelingen zorgvuldig samenwerken om geavanceerde verdedigingsmechanismen op te zetten die de integriteit van aangenomen personeel waarborgen. Deepfake, dat tot voor kort als een technologische curiositeit werd beschouwd, vestigt zich nu als een aanvalsinstrument in handen van staatsacteurs. En de beste verdediging begint met het vermogen om het te detecteren.

Afbeeldingsbron: Daniel Grek Sanchez Castellanos en Bettina Liporazzi. Bron: GBhackers en Palo Alto.

Scroll naar boven