Connect with us

Thought leaders

Stop met het beschuldigen van de data. Begin met het verbeteren van uw doelstellingen

mm

AI leert van ons. En wij zijn bevooroordeeld.

Omdat AI wordt getraind op voornamelijk door mensen gegenereerde inhoud, pikken ze onze vooroordelen op en bakken ze erin. Dat is waarom de meeste gesprekken over AI-vooringenomenheid zich richten op slechte data. Garbage in, garbage out. Simpel genoeg. Maar zelfs met schone data, sluipen vooroordelen er nog steeds in.

Een meer subtiele en vaak over het hoofd gezien probleem is doelstellingvooroordeel. Het is minder zichtbaar dan een datasetprobleem en is een van de grootste uitdagingen voor klantgerichte AI-toepassingen.

In dit artikel zal ik ingaan op wat doelstellingvooroordeel eruit ziet als onderdeel van de klantervaring (CX), waarom het ertoe doet en wat merken er eigenlijk aan kunnen doen.

Definitie van doelstellingvooroordeel

Doelstellingvooroordeel gaat niet over beschadigde data. Het gaat over beschadigde intentie. AI doet exact wat het wordt opgedragen, en als het wordt opgedragen om omzet te maximaliseren, zal het dat doen – zelfs als dat betekent dat de relatie met de klant wordt beschadigd.

Neem Delta Air Lines. Zij hebben onlangs aangekondigd AI-gebaseerde prijzen die zijn ontworpen om te bepalen wat de consument bereid is te betalen. Het is een perfect voorbeeld van doelstellingvooroordeel. Het systeem is niet getraind om u te helpen een goede deal te vinden. Het is getraind om omzettingen te verhogen en operationele kosten te verlagen.

Stel dat u een reis naar Parijs boekt. U wilt de beste tarief, maar het systeem wil de beste marge. De AI kan een vlucht van $800 aanbieden als er een van $400 beschikbaar is. Niet omdat de AI verkeerd is, maar omdat het zijn werk doet.

Niet precies het soort personalisatie waar consumenten om smeken…

Waarom het onvermijdelijk is

Doelstellingvooroordeel is een weerspiegeling van de waarden, cultuur en prioriteiten van uw merk. Het is ingebouwd in de structuur van uw AI. De echte vraag is, in welke richting “leunt” het? Geeft het de voorkeur aan klantdoelen of omzetdoelen?

Verschillende teams, regio’s en culturen hebben verschillende mentaliteiten en zullen de AI-modellen op verschillende manieren trainen. Als de verkoopafdeling de leiding heeft, zal het naar omzetting neigen. Als de CX-groep de leiding heeft, kan het beter zijn afgestemd op service en besparingen.

Dezelfde architectuur, verschillende resultaten.

De oplossing is niet om de vooroordeel volledig te verwijderen – het is om het in de juiste richting te sturen. Vooroordeel uw AI voor langetermijnloyaliteit, niet voor korte-termijnwinsten.

De gevolgen van niet-afgestemde AI

Het grootste risico dat merken lopen als het gaat om doelstellingvooroordeel, is het verlies van vertrouwen.

Klanten zijn al gefrustreerd door generieke, irrelevante merkinteracties. Wanneer AI deze ervaringen erger maakt, frustreert en alienereert het de koper.

Als grote taalmodellen (LLM’s) worden getraind op vooroordeelgebaseerde, aannamegebaseerde data, zullen ze onpersoonlijke antwoorden produceren. Als gevolg daarvan zullen klanten zich voelen alsof het merk niet om hen geeft. Zij kunnen vandaag bij u kopen, maar zijn minder waarschijnlijk om in de lange termijn bij uw merk te blijven.

Ervaring drijft nu loyaliteit. Veel klanten zijn zelfs bereid om meer te betalen voor het. Dus, wanneer een AI probeert om een hoogwaardig product te verkopen dat niet past bij de behoefte, merken zij het op. Zij kiezen ervoor om niet terug te keren.

Het agentic AI-probleem

Dat risico neemt toe wanneer we kijken naar agentic AI.

Agentic AI is gebouwd om zelfstandig te handelen. Het kan multistepworkflows zonder menselijke tussenkomst voltooien. Maar als de logica van de AI beschadigd is of de training niet is afgestemd, neemt de schade toe.

Experts zijn het erover eens dat agentic AI nog een lange weg te gaan heeft. In feite toont een recent rapport aan dat, terwijl bijna alle CFO’s weten van agentic AI, slechts 15% serieus overweegt. Overeenkomstige gegevens geven aan dat de mogelijkheid om vooroordeel nauwkeurig te monitoren en te voorkomen een belangrijke barrière voor adoptie was.

De meeste agentic systemen hebben nog steeds moeite met ambiguïteit, persistente geheugen en verantwoordelijkheid. Dat is een gevaarlijke combinatie wanneer er geen duidelijke manier is om fouten of vooroordelen te diagnosticeren of te corrigeren terwijl ze optreden.

Merken moeten niet aan de zijlijn zitten, maar ze moeten strategisch te werk gaan.

Hoe merken doelstellingvooroordeel kunnen minimaliseren

400">Dan Hartman is Director CX Product Management bij CSG, waar hij de klantervaringsproductstrategie van het bedrijf vormgeeft en de levering ervan bewaakt. Met meer dan 15 jaar leiderschapservaring in CX heeft Dan initiatieven van concept tot implementatie begeleid die de klantbetrokkenheid vergroten, operaties stroomlijnen en meetbare resultaten opleveren. Hij staat bekend om het opbouwen van hoogpresterende teams, het leiden van verandermanagement en het realiseren van bekroonde verbeteringen in de klantervaring. Voordat hij bij CSG kwam, leidde Dan meerdere afdelingen voor klantenservice en operaties, waarbij hij erkenning kreeg voor service-excellentie en best practices.