Nieuwe Oplossingen Voor Het Beveiligen Van AI Systemen Tegen Digitale Bedreigingen
In een tijd waarin technologieën op basis van kunstmatige intelligentie (AI) zich in een razend tempo ontwikkelen, is er een stille dreiging binnengeslopen in organisaties: Shadow AI. Dit fenomeen verwijst naar het ongeoorloofd of onopgemerkt gebruik van publieke taalmodellen, zoals ChatGPT of Claude, door medewerkers die hun productiviteit willen verhogen zonder toestemming van IT. De goede bedoelingen worden ondermijnd door hoge risico’s op beveiliging, privacy en naleving van regelgeving.
Startups Innoveren Voor Veilige AI
Om deze nieuwe uitdaging aan te gaan, zijn een aantal startups uit het Intel® Liftoff programma bezig met het ontwikkelen van geavanceerde oplossingen om de beveiliging en governance van AI te waarborgen, van cloudverwerking tot aan randapparatuur. Deze bedrijven laten zien dat het mogelijk is om een betrouwbare, schaalbare en veilige AI te bouwen, zelfs in een omgeving waar ongeoorloofd gebruik schering en inslag is.
Generatieve AI zonder Hallucinaties of Dataverlies
Grote taalmodellen (LLM) hebben transformerende mogelijkheden, maar zijn ook onvoorspelbaar. Ze kunnen foutieve antwoorden genereren (hallucinaties), worden gemanipuleerd door middel van “prompt injection” of kunnen gevoelige gegevens onveilig opslaan.
Prediction Guard, een lid van het Intel Liftoff Catalyst Track, heeft een platform ontwikkeld dat zowel kwaadaardige invoer als gevaarlijke uitvoer filtert in een veilige omgeving, gebruikmakend van infrastructuur gebaseerd op Intel® Tiber AI Cloud en Intel® Gaudi® 2 versnellers. Dit maakt veilige AI in kritieke contexten zoals de gezondheidszorg en financiën mogelijk.
Daarnaast heeft Raidu een allesomvattend governance-platform ontwikkeld, dat dataversleuteling, risicobeheer, toegangscontrole en tracering omvat, en voldoet aan normen zoals SOC 2, GDPR en HIPAA.
Co-mind biedt een corporate alternatief voor omgevingen waarin personeel vertrouwelijke documenten uploadt naar publieke LLM’s, met een platform dat generatieve mogelijkheden biedt binnen een besloten, door de organisatie beheerde infrastructuur.
Vertrouwelijke en Versleutelde AI
Confidential computing ziet er steeds meer uit als een van de pijlers voor veilige AI. Deze techniek beschermt data terwijl ze worden verwerkt, door deze op te slaan binnen veilige enclaves die zelfs door de cloudprovider niet kunnen worden bekeken.
Roseman Labs maakt het mogelijk om data gezamenlijk te analyseren tussen organisaties zonder de ruwe gegevens te delen, dankzij hun systeem van geëncrypteerde multiparty computing. Met behulp van Intel® Xeon® processors van de zesde generatie hebben ze het rendement van complexe operaties met vijfvoudig verhoogd.
Een andere sterke speler is Tinfoil, dat een volledig verifiable AI-platform in de cloud aanbiedt, met veilige enclaves en directe versleuteling naar de omgeving waar het model draait. Het gebruik van Intel® Trust Domain Extensions (TDX) waarborgt de integriteit van de code en de isolatie van gegevens, zelfs in gedeelde omgevingen.
Digitale Identiteit, Biometrie en Bestrijding van Deepfakes
De opkomst van digitale fraude en geautomatiseerde bots heeft ook geleid tot nieuwe manieren van verificatie.
Erasys heeft Trustmark ontwikkeld, een identiteitsoplossing op basis van gedragsbiometrie – zoals schrijfpatronen of apparaatspecifieke profielen – die traditionele CAPTCHA’s vervangt. Dit resulteert in een vlotte gebruikerservaring en een effectievere barrière tegen bots.
Tegelijkertijd bestrijdt Neural Defend deepfakes in real-time met behulp van multimodale AI, ter bescherming van overheden en banken tegen synthetische fraude. Hun recente pre-seed financieringsronde getuigt van het vertrouwen van de markt in hun voorstel.
Het Canadese Findora combineert privacy en vertrouwen in een zoekmachine die resultaten classificeert op geloofwaardigheid en gemanipuleerde inhoud detecteert, met inachtneming van privacywetgeving zoals de Canadese PIPEDA.
Veilige AI Ook Aan de Rand
Naarmate AI zich naar randapparatuur beweegt – drones, wearables, IoT-sensoren – ligt de uitdaging in het bieden van beveiliging en energie-efficiëntie.
De startup Falcons.AI heeft modellen voor beeldherkenning ontwikkeld die zijn gecomprimeerd tot slechts 4 MB, geïnspireerd door de neurale architectuur van het menselijke brein. Deze modellen, getraind met Intel Data Center GPUs, kunnen maandenlang functioneren op één batterij.
In de bedrijfsomgeving biedt MindFront SynthGrid, een platform dat het mogelijk maakt dat AI-agents werken met systemen zoals Microsoft Graph, CRM of ERP, zonder beveiligingslekken of de noodzaak voor complexe migraties. De sleutel ligt in het native integreren van authenticatie, VPN en permissiebeheer.
Een Nieuwe Standaard Voor Bedrijfsmatige AI
De opkomst van Shadow AI heeft niet alleen alarmbellen doen afgaan in de technologiesector, maar heeft ook de adoptie van proactieve oplossingen voor het beveiligen van kunstmatige intelligentie versneld. Van prompt filtering tot end-to-end encryptie, van deepfake-detectie tot AI aan de rand, het Intel® Liftoff ecosysteem bewijst dat het mogelijk is om een robuuste, ethische AI te bouwen die aansluit bij de bedrijfsdoelstellingen.
Zoals Eugenie Wirz, mede-auteur van het oorspronkelijke rapport, stelt: “Kunstmatige intelligentie kan alleen bedrijven transformeren als de basis van de beveiliging solide is.”
En die basis begint vandaag, met technologieën die zijn ontworpen om risico’s voor te zijn… zelfs de risico’s die zich in de schaduw verbergen.