Volgens een wereldwijde studie heeft slechts 7% van de bedrijven hun gegevens voorbereid voor kunstmatige intelligentie

Kunstmatige intelligentie is uitgegroeid tot het centrale punt van de digitale transformatie van ondernemingen, maar de technologische realiteit toont een zorgwekkende kloof tussen verwachtingen en de daadwerkelijke capaciteit van organisaties om hiervan te profiteren. Een nieuw rapport, samengesteld door Harvard Business Review Analytic Services in samenwerking met Cloudera, onthult dat de meeste bedrijven nog steeds niet beschikken over een voldoende volwassen databron om grootschalige AI-projecten uit te voeren.

Het onderzoek, getiteld Taming the Complexity of AI Data Readiness, is gebaseerd op een enquête onder 231 professionals die betrokken zijn bij besluitvorming over data en kunstmatige intelligentie binnen hun organisaties. De conclusies wijzen op een structureel probleem binnen het technologische ecosysteem van bedrijven: hoewel de adoptie van AI versnelt, blijft de benodigde datastructuur om dit te ondersteunen achter.

De meeste bedrijven zijn nog niet klaar voor AI

De resultaten benadrukken duidelijk deze disconnect. Alleen 7% van de organisaties geeft aan dat hun data volledig voorbereid is op AI-implementaties.

Daarnaast:

  • 15% vindt dat hun data bijna klaar is
  • 51% zegt dat ze gedeeltelijk klaar zijn
  • 27% erkent dat hun data niet klaar is of nauwelijks geschikt

Deze cijfers illustreren een veelvoorkomend scenario binnen veel organisaties: hoewel experi­mentatie met AI snel toeneemt, evolueren de kwaliteit, governance en beschikbaarheid van data niet hetzelfde tempo.

Het probleem is niet het gebrek aan data. Moderne bedrijven genereren enorme hoeveelheden informatie vanuit bedrijfsapplicaties, IoT-sensoren, financiële transacties, klantinteracties en sociale media. De uitdaging ligt in het omzetten van deze verspreide data in bruikbare assets voor AI-algoritmen.

Silo’s van data blijven de grootste belemmering

Een van de belangrijkste problemen die uit het onderzoek naar voren komen, is de fragmentatie van data binnen organisaties.

De 56% van de respondenten geeft aan dat datasilos of de moeilijkheid om verschillende gegevensbronnen te integreren, de grootste hindernis is voor het voorbereiden van data voor AI.

Aan dit probleem worden nog andere relevante factoren toegevoegd:

  • Gebrek aan een duidelijke datastrategie (44%)
  • Problemen met datakwaliteit of biases (41%)
  • Regelgevende beperkingen bij het gebruik van data (34%)

In de praktijk betekent dit dat veel AI-projecten blijven hangen in proef- of pilotfasen omdat organisaties geen robuuste en schaalbare data pipelines kunnen opzetten.

Bovendien geeft het rapport aan dat 73% van de organisaties vindt dat datakwaliteit veel meer prioriteit moet krijgen in hun AI-initiatieven, wat wijst op een groeiend bewustzijn van het probleem.

Data governance wordt een strategische prioriteit

Naarmate AI steeds meer wordt geïntegreerd in kritieke bedrijfsprocessen, wordt datagovernance een kernonderdeel van technologische strategieën.

Volgens het onderzoek beschikt slechts 23% van de organisaties al over een gedefinieerde datastrategie voor AI, terwijl 53% momenteel bezig is met het ontwikkelen ervan.

Enkele belangrijke elementen die bedrijven in hun datastrategieën opnemen, zijn onder meer:

  • Bescherming van gevoelige gegevens en privacy (59%)
  • Datakwaliteit en consistentie (46%)
  • Governance en controle over de volledige levenscyclus van data (41%)

Het beheer van data is dus uitgegroeid tot een cruciaal onderdeel om te garanderen dat AI-systemen betrouwbaar, auditbaar en compliant met regelgeving blijven.

In sectoren zoals bankwezen, gezondheidszorg of industrie, waar data zeer gevoelig is, zijn deze aspecten extra belangrijk.

Cloud, hybrid, en edge: het nieuwe datalandschap van ondernemingen

Het rapport biedt ook een interessante uiteenzetting over waar de data wordt opgeslagen en verwerkt die de AI-systemen aandrijven.

Momenteel:

  • 51% van de bedrijven gebruikt cloud als belangrijkste opslagomgeving voor AI-data
  • 28% maakt gebruik van hybride omgevingen, gecombineerd tussen cloud en lokale systemen
  • 11% beheert data uitsluitend op on-premise infrastructuren

Bovendien geeft 77% van de organisaties aan dat zij het volume data in de cloud willen vergroten in de komende 12 maanden, wat de trend naar schaalbare en flexibele infrastructuren bevestigd.

Het rapport benadrukt echter dat veel bedrijven architecturen adopteren waarin de algoritmen worden uitgevoerd waar de data zich bevindt, in plaats van grote hoeveelheden informatie te verplaatsen tussen datacenters of cloudplatforms.

Deze aanpak wordt gedreven door verschillende technische en regelgevende factoren:

  • Reduceren van latentie
  • Verbetering van veiligheid
  • Naleving van gegevenssoevereiniteitsregels
  • Verlaging van gegevensoverdrachtskosten

Agent-gebaseerde AI kan data management versnellen

Een van de meest interessante aspecten van het rapport is de toenemende interesse in de zogenaamde agent-gebaseerde AI, systemen die in staat zijn om complexe taken autonoom uit te voeren binnen bedrijfsprocessen.

Het onderzoek toont aan dat:

  • 65% van de respondenten denkt dat veel bedrijfsprocessen binnen twee jaar zullen worden versterkt of vervangen door agent-AI
  • 47% gelooft dat deze technologie kan helpen bij het oplossen van datakwaliteitsproblemen

In datamanagement kunnen agenten van AI automatiseren zoals:

  • Data cleaning
  • Detectie van inconsistenties
  • Creëren van data pipelines
  • Toezicht houden op datakwaliteit en datadrift

Dit zou het handmatige werk dat gepaard gaat met data voorbereiding aanzienlijk verminderen, een van de grootste kostenposten in AI-projecten.

De echte uitdaging van AI in het bedrijfsleven

Het rapport concludeert dat AI een diepgaande verandering teweegbrengt in de manier waarop bedrijven hun data waarnemen.

Gedurende decennia werd datamanagement vooral beschouwd als een operationele functie of een technologische kost. Tegenwoordig verandert dat en wordt het een strategisch actief dat bepalend is voor het concurrentievermogen.

AI vereist niet alleen geavanceerde algoritmen, maar moderne datainfrastructuren, stevige governance en flexibele architecturen die kunnen functioneren in hybride en gedistribueerde omgevingen.

In dit licht hangt het succes van AI-initiatieven minder af van de gebruikte modellen en meer van het vermogen van organisaties om betrouwbare, toegankelijke en goed beheerde ecosystemen van data op te bouwen.


Veelgestelde vragen over zakelijke data en kunstmatige intelligentie

Waarom is datakwaliteit zo belangrijk voor AI?

AI-modellen leren op basis van beschikbare data. Als die data fouten, inconsistenties of biases bevat, zijn ook de resultaten van AI onjuist. Daarom vormen datakwaliteit, governance en traceerbaarheid essentiële onderdelen van AI-projecten in het bedrijfsleven.

Wat betekent het dat data ‘klaar zijn voor AI’?

Dat betekent dat de data correct gestructureerd, geïntegreerd, schoon, toegankelijk en beheerd is. Daarnaast moet er sprake zijn van betrouwbare pipelines, metadataset en controlesystemen die het veilig en schaalbaar gebruik van data in AI-modellen mogelijk maken.

Welke rol spelen hybride architecturen in AI-projecten?

Hybride architecturen maken het mogelijk om cloud-infrastructuur te combineren met eigen datacenters en edge computing. Dit faciliteert het verwerken van data waar deze wordt gegenereerd of opgeslagen, met minder latentie, verbeterde veiligheid en naleving van datavoorschriften.

Hoe kan agent-AI de datamanagement verbeteren?

Agent-gebaseerde AI-systemen kunnen complexe taken in datamanagement automatiseren, zoals schoonmaken, classificeren, pipelines genereren of toezicht houden op datakwaliteit. Hierdoor wordt de ontwikkeling van AI-projecten versneld en wordt de handmatige inspanning voor datavoorbereiding verminderd.

via: Nieuws over kunstmatige intelligentie

Scroll naar boven