Connect with us

Kunstmatige intelligentie

Nieuw onderzoek toont aan hoe AI kan fungeren als bemiddelaars

mm

Nieuw onderzoek van de Cornell University toont aan hoe kunstmatige intelligentie (AI) een rol kan spelen bij het bemiddelen van gesprekken. Dit gebeurt op een moment van sociale distantie en remote gesprekken als gevolg van een pandemie. 

Volgens de nieuwe studie vertrouwden mensen kunstmatige intelligente systemen meer dan de echte mensen met wie ze praatten tijdens moeilijke gesprekken. De kunstmatige intelligente systemen waren “slimme” antwoordsuggesties in teksten. 

De nieuwe studie heeft als titel “AI als morele crumple zone: De effecten van bemiddelde AI-communicatie op toekenning en vertrouwen.” Het is online gepubliceerd in het tijdschrift Computers in Human Behavior.

Jess Hohenstein is een doctoraalstudent in de informatie wetenschap. Hij is de eerste auteur van het artikel.

“We vinden dat wanneer dingen verkeerd gaan, mensen de verantwoordelijkheid die anders aan hun menselijke partner zou zijn toegekend, deels toekennen aan het kunstmatige intelligentie systeem,” zei Hohenstein. “Dit introduceert een potentieel om AI te gebruiken als bemiddelaar in onze gesprekken.”

Herken wanneer dingen verkeerd gaan 

Tijdens een gesprek kan het algoritme de taal analyseren om het moment te detecteren waarop dingen verkeerd gaan. Het kan dan bepaalde conflictresolutie-strategieën suggereren, volgens Hohenstein.

Het hoofddoel van de studie was om te kijken naar de verschillende subtiele en significante manieren waarop AI-systemen, zoals slimme antwoorden, de interactie tussen mensen kunnen veranderen. Volgens de onderzoekers kan iets zo kleins als het selecteren van een antwoord dat niet helemaal accuraat is, de verschillende aspecten van een gesprek drastisch veranderen. Deze taal wordt vaak geselecteerd om tijd te besparen bij het typen, en het kan een directe invloed hebben op relaties. 

Malte Jung is co-auteur van de studie en assistent-professor in de informatie wetenschap. Hij is ook directeur van de Robots in Groups lab, die onderzoekt hoe robots de groepsdynamiek veranderen. 

“Communicatie is zo fundamenteel voor hoe we percepties van elkaar vormen, hoe we relaties vormen en onderhouden, of hoe we in staat zijn om samen iets te bereiken,” zei Jung.

“Deze studie valt binnen de bredere agenda van het begrijpen van hoe deze nieuwe AI-systemen onze interactie beïnvloeden,” vervolgde Jung. “We denken vaak na over hoe het ontwerp van systemen onze interactie met hen beïnvloedt, maar minder studies richten zich op de vraag hoe de technologieën die we ontwikkelen onze interactie met elkaar beïnvloeden.”

Beter begrip van menselijke interactie

De studie kan helpen om de manieren waarop mensen computers percipiëren en ermee interacteren te begrijpen. Het kan ook helpen om menselijke communicatie te verbeteren door middel van subtiele richtlijnen en AI-herinneringen.

Hohenstein en Jung wilden weten of het AI-systeem de “crash” van een gesprek kon absorberen.

“Er is een fysiek mechanisme in de voorzijde van de auto dat is ontworpen om de kracht van de impact te absorberen en verantwoordelijkheid te nemen voor het minimaliseren van de effecten van de crash,” zei Hohenstein. “Hier zien we het AI-systeem enige morele verantwoordelijkheid absorberen.”

Het onderzoek werd deels ondersteund door de National Science Foundation. 

Alex McFarland is een AI-journalist en schrijver die de laatste ontwikkelingen op het gebied van kunstmatige intelligentie onderzoekt. Hij heeft samengewerkt met talloze AI-startups en publicaties wereldwijd.