Refresh

This website www.unite.ai/nl/3-considerations-for-safe-and-reliable-ai-agents-for-enterprises/ is currently offline. Cloudflare's Always Online™ shows a snapshot of this web page from the Internet Archive's Wayback Machine. To check for the live version, click Refresh.

Verbind je met ons

Gedachte leiders

3 overwegingen voor veilige en betrouwbare AI-agenten voor ondernemingen

mm

gepubliceerd

 on

Volgens Gartner, 30% van de GenAI-projecten zal waarschijnlijk worden verlaten na proof-of-concept tegen het einde van 2025. Vroege adoptie van GenAI onthulde dat de data-infrastructuur en governance-praktijken van de meeste ondernemingen niet klaar waren voor effectieve AI-implementatie. De eerste golf van GenAI-productisering werd geconfronteerd met aanzienlijke obstakels, waarbij veel organisaties moeite hadden om verder te komen dan proof-of-concept-fasen om zinvolle bedrijfswaarde te bereiken.

Nu we de tweede golf van generatieve AI-productisering ingaan, realiseren bedrijven zich dat het succesvol implementeren van deze technologieën meer vereist dan alleen een LLM verbinden met hun data. De sleutel tot het ontsluiten van het potentieel van AI rust op drie kernpijlers: data op orde krijgen en ervoor zorgen dat deze klaar is voor integratie met AI; data governance-praktijken herzien om de unieke uitdagingen aan te pakken die GenAI introduceert; en AI-agents op manieren inzetten die veilig en betrouwbaar gebruik natuurlijk en intuïtief maken, zodat gebruikers niet gedwongen worden om gespecialiseerde vaardigheden of precieze gebruikspatronen te leren. Samen vormen deze pijlers een stevig fundament voor veilige, effectieve AI-agents in bedrijfsomgevingen.

Uw gegevens goed voorbereiden op AI

Terwijl gestructureerde gegevens lijken misschien georganiseerd voor het blote oog, omdat ze netjes zijn gerangschikt in tabellen en kolommen, LLM's hebben vaak moeite om deze gestructureerde data te begrijpen en er effectief mee te werken. Dit gebeurt omdat data in de meeste ondernemingen niet op een semantisch betekenisvolle manier is gelabeld. Data heeft vaak cryptische labels, bijvoorbeeld 'ID' zonder duidelijke indicatie of het een identificatie is voor een klant, een product of een transactie. Met gestructureerde data is het ook moeilijk om de juiste context en relaties tussen verschillende onderling verbonden datapunten vast te leggen, zoals hoe stappen in een customer journey met elkaar in verband staan. Net zoals we elke afbeelding in computer visie Om zinvolle AI-interacties mogelijk te maken, moeten organisaties nu de complexe taak op zich nemen om hun gegevens semantisch te labelen en relaties tussen alle systemen te documenteren.

Bovendien zijn gegevens verspreid over veel verschillende plekken – van traditionele servers tot verschillende cloudservices en verschillende softwaretoepassingen. Deze lappendeken van systemen leidt tot kritieke interoperabiliteits- en integratieproblemen die nog problematischer worden bij de implementatie van AI-oplossingen.

Een andere fundamentele uitdaging ligt in de inconsistentie van bedrijfsdefinities in verschillende systemen en afdelingen. Klantensuccesteams definiëren bijvoorbeeld 'upsell' op de ene manier, terwijl het verkoopteam het op een andere manier definieert. Wanneer u een AI-agent of chatbot verbindt met deze systemen en vragen begint te stellen, krijgt u verschillende antwoorden omdat de datadefinities niet op elkaar zijn afgestemd. Dit gebrek aan afstemming is geen klein ongemak, het is een kritieke barrière voor de implementatie van betrouwbare AI-oplossingen.

Slechte datakwaliteit creëert een klassieke “vuilnis erin, vuilnis eruit” scenario dat exponentieel ernstiger wordt wanneer AI-tools in een onderneming worden ingezet. Onjuiste of rommelige gegevens beïnvloeden veel meer dan één analyse: ze verspreiden onjuiste informatie naar iedereen die het systeem gebruikt via hun vragen en interacties. Om vertrouwen op te bouwen in AI-systemen voor echte zakelijke beslissingen, moeten ondernemingen ervoor zorgen dat hun AI-toepassingen gegevens hebben die schoon, nauwkeurig en begrepen zijn in een juiste zakelijke context. Dit vertegenwoordigt een fundamentele verschuiving in de manier waarop organisaties moeten denken over hun data-assets in het tijdperk van AI, waarin kwaliteit, consistentie en semantische duidelijkheid net zo cruciaal worden als de gegevens zelf.

Versterking van benaderingen van bestuur

Data governance is de afgelopen jaren een belangrijk aandachtspunt geweest voor organisaties, voornamelijk gericht op het beheren en beschermen van data die wordt gebruikt in analyses. Bedrijven hebben moeite gedaan om gevoelige informatie in kaart te brengen, zich te houden aan toegangsnormen, wetten zoals GDPR en CCPA na te leven en persoonlijke data te detecteren. Deze initiatieven zijn essentieel voor het creëren van AI-ready data. Echter, naarmate organisaties generatieve AI-agenten in hun workflows introduceren, reikt de governance-uitdaging verder dan alleen de data zelf en omvat het de gehele gebruikersinteractie-ervaring met AI.

We staan ​​nu voor de noodzaak om niet alleen de onderliggende data te besturen, maar ook het proces waarmee gebruikers met die data interacteren via AI-agenten. Bestaande wetgeving, zoals de De AI-wet van de Europese Unie, en meer regelgevingen aan de horizon onderstrepen de noodzaak om het vraag-antwoordproces zelf te reguleren. Dit betekent dat AI-agenten transparante, verklaarbare en traceerbare antwoorden moeten geven. Wanneer gebruikers black-box-antwoorden krijgen, zoals de vraag "Hoeveel grieppatiënten zijn er gisteren opgenomen?" en ze krijgen slechts "50" zonder context, is het moeilijk om die informatie te vertrouwen voor cruciale beslissingen. Zonder te weten waar de gegevens vandaan kwamen, hoe ze werden berekend of definities van termen als "opgenomen" en "gisteren", verliest de output van de AI zijn betrouwbaarheid.

In tegenstelling tot interacties met documenten, waarbij gebruikers antwoorden kunnen herleiden tot specifieke PDF's of beleidsregels om de nauwkeurigheid te verifiëren, missen interacties met gestructureerde gegevens via AI-agenten vaak dit niveau van traceerbaarheid en uitlegbaarheid. Om deze problemen aan te pakken, moeten organisaties governancemaatregelen implementeren die niet alleen gevoelige gegevens beschermen, maar ook de AI-interactie-ervaring beheerd en betrouwbaar maken. Dit omvat het instellen van robuuste toegangscontroles om ervoor te zorgen dat alleen geautoriseerd personeel toegang heeft tot specifieke informatie, het definiëren van duidelijke verantwoordelijkheden voor gegevenseigendom en -beheer en het ervoor zorgen dat AI-agenten uitleg en referenties voor hun outputs verstrekken. Door data governance-praktijken te herzien om deze overwegingen op te nemen, kunnen ondernemingen veilig de kracht van AI-agenten benutten terwijl ze voldoen aan veranderende regelgeving en het vertrouwen van gebruikers behouden.

Denken voorbij snelle engineering

Nu organisaties generatieve AI-agenten introduceren in een poging de toegankelijkheid van data te verbeteren, snelle techniek is een nieuwe technische barrière voor zakelijke gebruikers geworden. Hoewel het wordt aangeprezen als een veelbelovend carrièrepad, creëert prompt engineering in feite dezelfde barrières waar we mee hebben geworsteld in data-analyse. Het creëren van perfecte prompts is niet anders dan het schrijven van gespecialiseerde SQL-query's of het bouwen van dashboardfilters - het is het verschuiven van technische expertise van het ene formaat naar het andere, waarbij nog steeds gespecialiseerde vaardigheden nodig zijn die de meeste zakelijke gebruikers niet hebben en niet nodig zouden moeten hebben.

Bedrijven hebben lang geprobeerd om de toegankelijkheid van data op te lossen door gebruikers te trainen om datasystemen beter te begrijpen, documentatie te creëren en gespecialiseerde rollen te ontwikkelen. Maar deze aanpak is achterhaald: we vragen gebruikers om zich aan te passen aan data in plaats van data aan te passen aan gebruikers. Prompt engineering dreigt dit patroon voort te zetten door nog een laag technische tussenpersonen te creëren.

Echte datademocratisering vereist systemen die zakelijke taal begrijpen, geen gebruikers die datataal begrijpen. Wanneer leidinggevenden vragen stellen over klantbehoud, zouden ze geen perfecte terminologie of prompts nodig moeten hebben. Systemen moeten de intentie begrijpen, relevante data herkennen over verschillende labels (of het nu gaat om 'churn', 'retention' of 'customer lifecycle') en contextuele antwoorden geven. Hierdoor kunnen zakelijke gebruikers zich richten op beslissingen in plaats van te leren technisch perfecte vragen te stellen.

Conclusie

AI-agenten brengen belangrijke veranderingen in de manier waarop ondernemingen opereren en beslissingen nemen, maar ze brengen hun eigen unieke reeks uitdagingen met zich mee die moeten worden aangepakt voordat ze worden ingezet. Met AI wordt elke fout versterkt wanneer niet-technische gebruikers selfservicetoegang hebben, waardoor het cruciaal is om de basis goed te krijgen.

Organisaties die de fundamentele uitdagingen van datakwaliteit, semantische uitlijning en governance succesvol aanpakken en tegelijkertijd de beperkingen van prompt engineering overstijgen, zullen in staat zijn om datatoegang en besluitvorming veilig te democratiseren. De beste aanpak omvat het creëren van een collaboratieve omgeving die teamwork faciliteert en mens-machine- en machine-machine-interacties op elkaar afstemt. Dit garandeert dat AI-gestuurde inzichten nauwkeurig, veilig en betrouwbaar zijn, en stimuleert een organisatiebrede cultuur die data beheert, beschermt en maximaliseert tot het volledige potentieel.

Inna Tokarev Sela, de CEO en oprichter van Illumex, leidt een platform dat de gestructureerde gegevens van uw organisatie voorbereidt op optimale implementatie van genAI-analyseagents door deze te vertalen naar zinvolle, contextrijke zakelijke taal met ingebouwde governance.