Connect with us

95% van AI-piloten faalt, en slechte data is de boosdoener

Thought leaders

95% van AI-piloten faalt, en slechte data is de boosdoener

mm

MIT-onderzoek levert een nuchtere realiteit voor enterprise-leiders: 95% van AI-projecten komt nooit verder dan de pilotfase. Ondanks de buzz in de boardrooms over de transformatieve potentie van AI, mislukken de meeste initiatieven om waardevolle bedrijfsresultaten te genereren.

Conventionele wijsheid geeft de schuld aan zwakke modellen, beperkte compute of schaarse technisch talent. Maar ervaring met het werken met honderden ondernemingen vertelt een ander verhaal. De echte bottleneck is niet het algoritme. Het is de data. Slechte of inconsistentie data ondermijnt zelfs de meest geavanceerde AI-inspanningen, waardoor innovatie-investeringen verloren gaan.

De verborgen kosten van slechte data

In ondernemingen gaan slechte data vaak AI-projecten te gronde voordat ze kunnen schalen. Overweeg een vertrouwd scenario: een Fortune 500-bedrijf besteedt maanden aan het bouwen van een churn-predictiemodel. De pilot ziet er sterk uit — nauwkeurig en vol belofte. Maar op het moment dat het naar productie gaat, verschijnen de barsten.

Pijpleidingen breken op de slechtste momenten. Critische banen lopen uren vertraagd, waardoor interventievensters worden gemist. Tabellen laten plotseling rijen vallen na onverwachte upstream-changes. API-referenties verlopen zonder waarschuwing, waardoor essentiële feeds worden afgesneden. Schone pilootdata verandert in een stroom van verouderde of inconsistentie invoer.

Het gevolg is verwoestend. Er zijn onbetrouwbare voorspellingen en stakeholders verliezen vertrouwen. Het project wordt op de plank gezet, niet omdat de algoritmes faalden, maar omdat de basis instortte. Maanden van ontwikkeling, miljoenen aan investeringen en ontelbare uren aan engineeringswerk verdwijnen.

Dit is geen geïsoleerd geval. Volgens Pantomath’s State of Data Observability 2024 -rapport zegt 94% van de organisaties dat pijpleidingsproblemen het vertrouwen in hun data ondermijnen en 90% uren of zelfs weken nodig hebben om ze te repareren. Als uw AI-strategie rust op onbetrouwbare data, wacht het falen om de hoek.

Waarom AI sterke fundamenten nodig heeft

AI-succes hangt af van de kwaliteit van de data. Zoals het spreekwoord zegt: “Garbage in, garbage out.” Zelfs de beste modellen storten in als de data die ze voedt, defect is, net als het bouwen van een wolkenkrabber op kwelder.

Denk aan een raceauto: wereldklasse-engineering en een ervaren chauffeur betekenen niets als de brandstof verontreinigd is. Op dezelfde manier falen elegante machine learning-modellen als ze worden aangedreven door onbetrouwbare data.

AI-systemen hebben nauwkeurige, real-time data nodig om aan te passen en te presteren. Elke onderbreking — mislukte banen, ontbrekende records, schema-changes — kan de nauwkeurigheid ondermijnen of zelfs het systeem geheel breken. Misschien mislukt een aanbevelingsengine en vertrekken klanten, of mist een fraude-detectiesysteem bedreigingen.

Zonder sterke data-fundamenten verandert AI snel in een enorme aansprakelijkheid. Daarom zijn data-betrouwbaarheid, vertrouwen en integriteit voorwaarden voor elke succesvolle AI-strategie.

De huidige staat van data-operaties

De meeste ondernemingen vertrouwen nog steeds op handmatige, reactieve processen om data-operaties uit te voeren — een model dat eenvoudigweg niet schaalbaar is voor AI. Wanneer er iets misgaat, rennen engineers rond om problemen te traceren over uitgebreide, multi-platformarchitecturen en ze één voor één te repareren.

Deze brandweerbenadering creëert drie grote problemen:

  • Vertraagde detectie: Problemen kunnen dagen of weken aanhouden, waardoor AI-modellen op gecompromitteerde data draaien.
  • Onvolledige reparaties: Handmatig troubleshooten is inconsistent, vaak de onderliggende oorzaken missend en systemen kwetsbaar latend.
  • Verloren capaciteit: Engineerings-talent besteedt meer tijd aan het najagen van fouten dan aan het stimuleren van innovatie.

De complexiteit verergert de uitdaging alleen maar. Moderne data-ecosystemen omvatten tientallen platforms en verwarde afhankelijkheden die weinig mensen echt begrijpen. Het diagnosticeren van oorzaken kan dagen of zelfs weken duren.

Gooi meer mensen in het probleem: consultants, aannemers, grotere data-teams. Dat is het oplossen van verkeersopstoppingen door meer verkeersagenten in te huren. Het echte probleem is niet het personeel, maar het ontbreken van een data-betrouwbaarheidssysteem.

Observatie en automatisering als katalysatoren

De weg vooruit is het verschuiven van data-operaties van handmatig brandweerwerk naar proactieve, geautomatiseerde operaties gebouwd op twee pijlers: observatie en automatisering.

Observatie levert real-time zichtbaarheid in het hele data-ecosysteem — het monitoren van baanprestaties, verse data, kwaliteit en afhankelijkheden — zodat problemen worden opgevangen voordat ze AI-toepassingen bereiken. In plaats van te wachten tot downstream-teams problemen melden, krijgen ondernemingen een altijd-aan-zicht in de gezondheid en flow van hun data.

Automatisering voegt de snelheid en schaal toe die nodig is om op die zichtbaarheid te handelen. Wanneer een kritieke baan om 3 uur ‘s nachts faalt, geautomatiseerde systemen kunnen downstream-workflows stoppen, de juiste teams waarschuwen met volledige context en zelfs corrigerende acties starten.

Samen markeren deze capaciteiten een fundamentele verschuiving. Data-betrouwbaarheid is niet langer alleen een achterkantoor-karweitje voor gespecialiseerde engineers. Het ontwikkelt zich tot een strategische capaciteit die elke ambitie van ondernemingen voor AI ondersteunt.

Het sluiten van de kloof tussen pilot en productie

Het falen van veel AI-initiatieven ligt in de sprong van pilot naar productie. Pilots draaien op statische, gecureerde datasets die datawetenschappers zorgvuldig kunnen schoonmaken en valideren. Productie daarentegen is rommelig. Het vereist het omgaan met non-stop stromen van diverse data die vanuit de hele onderneming binnenkomen.

Wanneer theorie praktijk wordt, is dat wanneer de barsten beginnen te verschijnen. Batch-processen die in pilots werken, kunnen de real-time eisen niet bijhouden. Pre-gevalideerde datasets geven plaats aan rauwe, inconsistentie invoer. Gecontroleerde omgevingen moeten plotseling interactie hebben met legacy-platforms, derde-partij-API’s en constant veranderende bedrijfssystemen.

Daarom investeren ondernemingen die deze kloof overbruggen in data-betrouwbaarheidsinfrastructuur. De basis van data-betrouwbaarheid ondersteunt die rommelige, real-world productie-eisen. Data-betrouwbaarheid helpt uw systeem zich voorbereiden op wat eraan komt.

Aanbevelingen voor ondernemingen

Organisaties die AI met succes schalen, delen gemeenschappelijke strategieën:

  • Investeer vroeg in data-betrouwbaarheid. Maak kwaliteit een voorwaarde, door monitoring, testen en validatie in te stellen voordat pilots naar productie gaan.
  • Implementeer observatie-praktijken. Volg niet alleen baanmislukkingen, maar ook verse data, volume-veranderingen, schema-changes en kwaliteitsmetrieken die direct van invloed zijn op AI-prestaties.
  • Automatiseer routine-operaties. Gebruik geautomatiseerde detectie en oplossing om brandweerwerk te verminderen en engineers te vrijwaren voor strategisch werk.
  • Bouw aansprakelijkheidsmechanismen. Behandel datakwaliteit als een bedrijfsprioriteit met duidelijke eigenaarschap en feedback-lussen tussen producenten en consumenten.
  • Ontwerp voor veerkracht. Ontwerp systemen om fouten te bevatten, met validatiepunten om slechte data te voorkomen dat ze zich verspreidt.

AI’s 95% faalpercentage is niet onvermijdelijk. Het is voorkombaar. Het probleem is niet AI zelf, maar het ontbreken van sterke data-fundamenten om het te ondersteunen. Succes in data-operaties is succes in AI. Ze zijn één en hetzelfde.

Dit is een wake-up call. Ondernemingen moeten verder gaan dan handmatige, reactieve benaderingen en proactieve, geautomatiseerde systemen aannemen. Stop niet totdat u echte betrouwbaarheid heeft. De tools en praktijken om een “slechte data-probleem” te repareren bestaan al vandaag.

Ondernemingen die deze verschuiving omarmen, zullen meer zien dan alleen hogere AI-succespercentages. Ze transformeren hoe ze data gebruiken, waardoor nieuwe inzichten ontstaan over de hele onderneming.

U kunt blijven investeren in pilots die zijn gedoemd door onbetrouwbare data. Of u kunt robuuste fundamenten bouwen die AI een duurzaam voordeel maken. Het is aan u.

Shashank is de CEO van Pantomath en speelde een belangrijke rol bij de oprichting van het bedrijf. Hij is ook partner bij Sierra Ventures, waar hij investeringen in enterprise software leidt. Voordat hij zijn rollen bij Pantomath en Sierra Ventures vervulde, was Shashank de mede-oprichter en CEO van VNDLY, dat in 2017 werd opgericht als een Vendor Management System (VMS) in Cincinnati, OH, en in 2021 door Workday werd overgenomen voor $510M.

Na de overname was Shashank de algemeen directeur van Workday VNDLY. Shashank begon zijn carrière in IT-toepassingsbeheer in de bank-, detailhandel- en e-commerce voordat hij een succesvolle trackrecord opbouwde bij Fortune 25-bedrijven, zoals Citi en Kroger, Co., waar hij de corporate strategie en digitale transformatie leidde. Shashank is ook een actieve vroegstage-angelinvesteerder en venturepartner en is betrokken geweest bij meerdere andere SaaS-bedrijven. Shashank heeft een bachelordiploma in computerwetenschappen en een MBA in finance, en een MS-diploma in informatiesystemen van de University of Cincinnati.