mozzicone Nuove informazioni sulla mancanza di fiducia per l'intelligenza artificiale - Unite.AI
Seguici sui social

Intelligenza Artificiale

Nuova visione della mancanza di fiducia per l'intelligenza artificiale

Pubblicato il

 on

Recenti ricerche stanno fornendo nuove informazioni su ciò che determina il livello di fiducia degli individui nell'intelligenza artificiale (AI). Un team dell'Università del Kansas, guidato dallo psicologo delle relazioni Omri Gillath, ha spiegato in dettaglio come tale relazione sia influenzata dalla relazione nella vita reale o dallo stile di attaccamento degli individui.

Il team era composto da una varietà di esperti di diverse discipline, come psicologia, ingegneria, economia e medicina. 

L'articolo è stato pubblicato sulla rivista I computer in Human Behavior

Secondo la ricerca, le persone hanno maggiori probabilità di essere meno fiduciose nei confronti dei sistemi di intelligenza artificiale se sono ansiose per le loro relazioni nella vita reale con gli umani. Il documento descrive inoltre in dettaglio come sia possibile aumentare la fiducia nell'intelligenza artificiale ricordando alle persone le loro relazioni umane stabili.

C'è ancora un alto livello di sfiducia tra le nuove tecnologie di intelligenza artificiale, nonostante il mercato globale stimato dell'intelligenza artificiale dovrebbe raggiungere i 39.9 miliardi di dollari nel 2019. 

Aumentare la fiducia

Il team di ricerca non solo ha identificato il problema della mancanza di fiducia nei sistemi di intelligenza artificiale, ma ha anche escogitato modi per aumentare la fiducia. Gli studi sui rapporti umani suggerivano alcune cose diverse.

In primo luogo, si prevede che le persone che soffrono di ansia da attaccamento abbiano meno fiducia nell'intelligenza artificiale. In secondo luogo, aumentando l'ansia da attaccamento, è stata ridotta la fiducia nell'intelligenza artificiale. Infine, la fiducia nell'intelligenza artificiale aumenta quando viene migliorata la sicurezza degli allegati. 

Gillath è un professore di psicologia alla KU. 

“La maggior parte delle ricerche sulla fiducia nell'intelligenza artificiale si concentra sui modi cognitivi per aumentare la fiducia. Qui abbiamo adottato un approccio diverso concentrandoci su un percorso "relazionale affettivo" per aumentare la fiducia, vedendo l'IA come un partner o un membro del team piuttosto che come un dispositivo", ha affermato Gillath. 

"Trovare associazioni tra il proprio stile di attaccamento - una differenza individuale che rappresenta il modo in cui le persone si sentono, pensano e si comportano nelle relazioni strette - e la sua fiducia nell'intelligenza artificiale apre la strada a nuove comprensioni e potenzialmente nuovi interventi per indurre fiducia".

Con la loro ricerca, il team sta portando avanti un nuovo modo di guardare all'intelligenza artificiale e alla fiducia che la circonda, in particolare ciò che influisce su tale fiducia. Potrebbe svolgere un ruolo nel facilitare l'introduzione dell'IA sul posto di lavoro e in nuovi ambienti. 

"I risultati mostrano che è possibile prevedere e aumentare i livelli di fiducia delle persone nei non umani in base alle loro prime relazioni con gli umani", ha affermato Gillath. "Questo ha il potenziale per migliorare l'adozione di nuove tecnologie e l'integrazione dell'intelligenza artificiale sul posto di lavoro". 

Sfiducia nei confronti dell'IA

La sfiducia nei confronti dell'IA tra la popolazione non è una novità. Negli ultimi anni, c'è stato molto scetticismo riguardo alla tecnologia e alla sua implementazione. Ciò non è affatto ingiustificato, poiché nel corso degli anni si sono sviluppate varie questioni che hanno causato questa sfiducia. 

Proprio di recente, scienziati internazionali provenienti da alcune delle migliori istituzioni del mondo ha criticato la mancanza di trasparenza all'interno della ricerca sull'IA. Nel giugno del 2019, gli Stati Uniti hanno visto il suo primo caso di arresto illecito a causa di un cattivo algoritmo. Ci sono molti altri esempi come pregiudizi nella visione artificiale e la l'uso dell'intelligenza artificiale da parte dei governi per il combattimento e la sorveglianza. 

Sebbene tutti questi esempi possano sembrare molto lontani dall'esperienza personale di un individuo con l'intelligenza artificiale, svolgono indubbiamente un ruolo nel formare la percezione complessiva della tecnologia. Una nuova ricerca come quella che sta uscendo dall'Università del Kansas fornisce informazioni molto necessarie per affrontare alcuni di questi problemi. 

 

Alex McFarland è un giornalista e scrittore specializzato in intelligenza artificiale che esplora gli ultimi sviluppi nel campo dell'intelligenza artificiale. Ha collaborato con numerose startup e pubblicazioni di intelligenza artificiale in tutto il mondo.