Seguici sui social

Robotica

Fiducia e inganno: il ruolo delle scuse nelle interazioni uomo-robot

mm
Fonte: Georgia Tech

L'inganno dei robot è un campo poco studiato con più domande che risposte, in particolare quando si tratta di ricostruire la fiducia nei sistemi robotici dopo che sono stati sorpresi a mentire. Due studenti ricercatori della Georgia Tech, Kantwon Rogers e Reiden Webber, stanno tentando di trovare risposte a questo problema indagando su come l'inganno intenzionale dei robot influenzi la fiducia e l'efficacia delle scuse nel riparare la fiducia.

Rogers, un dottorato di ricerca. studente del College of Computing, spiega:

"Tutto il nostro lavoro precedente ha dimostrato che quando le persone scoprono che i robot hanno mentito loro, anche se la menzogna aveva lo scopo di avvantaggiarli, perdono la fiducia nel sistema".

I ricercatori mirano a determinare se diversi tipi di scuse sono più efficaci nel ripristinare la fiducia nel contesto dell'interazione uomo-robot.

L'esperimento di guida assistita dall'intelligenza artificiale e le sue implicazioni

Il duo ha progettato un esperimento di simulazione di guida per studiare l'interazione uomo-IA in una situazione ad alto rischio e sensibile al tempo. Hanno reclutato 341 partecipanti online e 20 partecipanti di persona. La simulazione prevedeva uno scenario di guida assistita dall'intelligenza artificiale in cui l'intelligenza artificiale forniva false informazioni sulla presenza della polizia lungo il percorso verso un ospedale. Dopo la simulazione, l'intelligenza artificiale ha fornito una delle cinque diverse risposte testuali, inclusi vari tipi di scuse e non scuse.

. sul risultato ha rivelato che i partecipanti avevano una probabilità 3.5 volte maggiore di non accelerare quando consigliati da un assistente robotico, indicando un atteggiamento eccessivamente fiducioso nei confronti dell'IA. Nessuna delle tipologie di scuse ha ripristinato completamente la fiducia, ma le semplici scuse senza ammissione di menzogna ("Mi dispiace") hanno avuto risultati migliori rispetto alle altre risposte. Questo risultato è problematico, poiché sfrutta l'idea preconcetta che qualsiasi informazione falsa fornita da un robot sia un errore di sistema piuttosto che una bugia intenzionale.

Reiden Webber sottolinea:

"Un punto chiave è che, affinché le persone capiscano che un robot le ha ingannate, deve esserglielo detto esplicitamente".

Quando i partecipanti sono stati informati dell'inganno nelle scuse, la migliore strategia per riparare la fiducia era che il robot spiegasse perché ha mentito.

Andare avanti: implicazioni per utenti, progettisti e responsabili politici

Questa ricerca ha implicazioni per gli utenti medi di tecnologia, i progettisti di sistemi di intelligenza artificiale e i responsabili politici. È fondamentale che le persone capiscano che l'inganno robotico è reale e sempre una possibilità. Progettisti e tecnologi devono considerare le ramificazioni della creazione di sistemi di intelligenza artificiale in grado di ingannare. I responsabili politici dovrebbero prendere l'iniziativa di ritagliare una legislazione che bilanci l'innovazione e la protezione del pubblico.

L'obiettivo di Kantwon Rogers è quello di creare un sistema robotico in grado di imparare quando mentire e quando non mentire quando lavora con team umani, nonché quando e come scusarsi durante interazioni ripetute e a lungo termine tra uomo e intelligenza artificiale per migliorare le prestazioni del team.

Sottolinea l'importanza di comprendere e regolare l'inganno di robot e IA, dicendo:

"L'obiettivo del mio lavoro è essere molto proattivo e informare sulla necessità di regolamentare l'inganno dei robot e dell'intelligenza artificiale. Ma non possiamo farlo se non comprendiamo il problema."

Questa ricerca fornisce conoscenze fondamentali nel campo dell'inganno dell'IA e offre preziose informazioni per i progettisti di tecnologia e i responsabili politici che creano e regolano la tecnologia dell'IA in grado di ingannare o potenzialmente imparare a ingannare da sola.

Alex McFarland è un giornalista e scrittore specializzato in intelligenza artificiale che esplora gli ultimi sviluppi nel campo dell'intelligenza artificiale. Ha collaborato con numerose startup e pubblicazioni di intelligenza artificiale in tutto il mondo.