De belofte van zakelijke kunstmatige intelligentie (AI) botst vaak met een ongemakkelijke realiteit: hoe dichter de data bij de bron waar deze wordt gegenereerd, hoe moeilijker het is om deze te verwerken met lage latentie en beveiligingsgaranties. In deze context heeft Datavault AI Inc. (Nasdaq: DVLT) een uitbreiding van zijn samenwerking met IBM aangekondigd om AI-capaciteiten aan de rand van het netwerk (edge) te implementeren in New York en Philadelphia. Deze implementatie steunt op SanQtum AI, een platform beheerd door Available Infrastructure, dat gebaseerd is op een vloot van gesynchroniseerde edge micro-datacenters om verwerking dicht bij de databron te bieden.
Het verklaarde doel van dit project is ambitieus: cyberveilige opslag en computing mogelijk maken, realtime datascoring, tokenisatie en verwerking met ultralage latentie in twee grootstedelijke gebieden die de bedrijven beschrijven als bijzonder dicht in datageneratie. De infrastructuur zal IBM’s watsonx-productportfolio uitvoeren binnen een zero trust-netwerk, een voorstel dat de afhankelijkheid van gecentraliseerde pipelines in de publieke cloud voor gevoelige gebruiksscenario’s wil verminderen.
In de afgelopen jaren hebben veel organisaties hun data- en analysepipelines naar gecentraliseerde architecturen in de publieke cloud verplaatst. Deze strategie voldoet echter niet altijd aan strikte vereisten voor latentie, datasoevereiniteit, vertrouwelijkheid of integriteit. De aanpak van Datavault AI positioneert zich precies daar: data verwerken en valoriseren op het moment dat deze ontstaat, waarbij voorafgaande overdracht naar een extern platform wordt vermeden.
Het bedrijf zal zijn Information Data Exchange (IDE) en DataScore-agenten, gebouwd met watsonx, implementeren in de zero trust-omgeving van SanQtum AI. Het idee is dat data aan de edge wordt verwerkt, gescoord en getokeniseerd, waardoor deze vrijwel onmiddellijk wordt omgezet in geauthenticeerd digitaal eigendom. Dit mechanisme opent de deur naar high-security datahandelmodellen en scenario’s waar traceerbaarheid en manipulatiebestendigheid fundamentele vereisten zijn.
Tokenisatie, die soms oppervlakkig is gebruikt in de industrie, heeft hier een zeer praktische betekenis: data representeren als geauthenticeerde digitale activa, klaar om te worden geverifieerd, gewaardeerd en gedeeld onder gedefinieerde toegangs- en controleregels. De strategie richt zich op het verminderen van de afhankelijkheid van gecentraliseerde pipelines, het elimineren van vertragingen tussen datacreatie en monetisatie, het voorkomen van manipulaties door data binnen een lokaal zero trust-netwerk te houden, en bedrijven in staat te stellen data te behandelen als verhandelbaar digitaal eigendom in realtime.
Nathaniel Bradley, CEO van Datavault AI, verbindt dit voorstel met een verandering in de data-economie, waarbij de intelligentie van watsonx wordt gecombineerd met de snelheid van SanQtum AI. Available Infrastructure op zijn beurt beweert dat zijn platform snelheid, veerkracht en bescherming verenigt in één technologisch blok. De samenwerking met IBM brengt modellen, tools en watsonx-producten die op deze gedistribueerde infrastructuur draaien, waarmee de implementatie wordt geplaatst binnen IBM’s ecosysteembenadering om AI op te schalen naar complexe zakelijke behoeften.
Bovendien had IBM al eerder interesse getoond in het gebruik door Datavault AI van watsonx.ai voor het bouwen van agenten zoals DataScore, gericht op het scoren van datakwaliteit en -risico, naast naleving van regelgevende kaders zoals GDPR of CCPA. Dit versterkt de centrale boodschap: overgaan van het afleiden van informatie naar het omzetten van data in activa met context, controles en verifieerbaarheid, in een realtimeproces.
SanQtum AI definieert zichzelf als een cyberveilig AI-platform gebaseerd op gedistribueerde datacenters in grote stedelijke gebieden, met lage latentie. De omgeving incorporeert een privaat zero trust mesh-model en kwantumbestendige encryptie, gericht op gevoelige werklasten, kritieke infrastructuren en data die niet naar open omgevingen wil. In de praktijk beantwoordt deze benadering aan de groeiende eis van nabijheid tot data voor realtime operaties, zoals scoring, media-analyse, identiteitsverificatie of procesautomatisering die geen vertragingen tolereert.
De volledige implementatie in New York en Philadelphia wordt verwacht in het eerste kwartaal van 2026, met plannen om uit te breiden naar andere grootstedelijke gebieden. De strategie bestaat uit het consolideren van een stedelijke AI-corridor aan de edge en deze te repliceren in nieuwe steden, met latere mijlpalen voorzien voor het tweede kwartaal van datzelfde jaar.
Dit initiatief vertegenwoordigt een solide inzet op “echte” edge, niet alleen als marketingstrategie. De combinatie van micro-datacenters, zero trust-beveiliging en het watsonx-platform stelt een toegepaste oplossing voor datamonetisatie en -verificatie voor, die de manier waarop bedrijven kunstmatige intelligentie benaderen zou kunnen transformeren: minder afhankelijkheid van gecentraliseerde cloud, meer verwerking dicht bij de bron en meer controle over het beheer en de exploitatie van informatie in realtime.
