Connect with us

Considerazioni Etiche Nello Sviluppo di Intelligenza Artificiale per il Riconoscimento delle Emozioni

Etica

Considerazioni Etiche Nello Sviluppo di Intelligenza Artificiale per il Riconoscimento delle Emozioni

mm

L’intelligenza artificiale per la regolazione delle emozioni è una delle ultime innovazioni tecnologiche nel campo dell’apprendimento automatico. Sebbene mostri un grande potenziale, le questioni etiche sono pronte ad influenzare il suo tasso di adozione e la sua longevità. I sviluppatori di intelligenza artificiale possono superarle?

Cosa è l’Intelligenza Artificiale per il Riconoscimento delle Emozioni?

L’intelligenza artificiale per il riconoscimento delle emozioni è un tipo di modello di apprendimento automatico. Spesso si basa sulla tecnologia di visione computerizzata che cattura e analizza le espressioni facciali per decifrare gli umori nelle immagini e nei video. Tuttavia, può anche funzionare su snippet audio per determinare il tono della voce o su testo scritto per valutare il sentimento del linguaggio.

Questo tipo di algoritmo rappresenta un progresso affascinante nel campo dell’intelligenza artificiale perché, finora, i modelli non sono stati in grado di comprendere i sentimenti umani. Mentre i grandi modelli linguistici come ChatGPT possono simulare umori e personalità in modo convincente, possono solo combinare parole in modo logico – non possono provare nulla e non mostrano intelligenza emotiva.Sebbene un modello di riconoscimento delle emozioni non sia in grado di provare sentimenti, può ancora rilevarli e catalogarli. Questo sviluppo è significativo perché segnala che l’intelligenza artificiale potrebbe presto essere in grado di comprendere e dimostrare realmente felicità, tristezza o rabbia. I progressi tecnologici come questi indicano un avanzamento accelerato.

Casi d’Uso per l’Intelligenza Artificiale per il Riconoscimento delle Emozioni

Le aziende, gli educatori, i consulenti e i professionisti della salute mentale sono alcuni dei gruppi che possono utilizzare l’intelligenza artificiale per il riconoscimento delle emozioni.

Valutazione del Rischio in Ufficio

I team delle risorse umane possono utilizzare algoritmi per condurre un’analisi del sentimento su corrispondenza via e-mail o chat in-app tra i membri del team. In alternativa, possono integrare il loro algoritmo nel loro sistema di sorveglianza o visione computerizzata. Gli utenti possono tracciare l’umore per calcolare metriche come il rischio di turnover, il tasso di burnout e la soddisfazione dei dipendenti.

Assistenza agli Agenti di Servizio Clienti

I rivenditori possono utilizzare agenti di servizio clienti di intelligenza artificiale interni per gli utenti finali o assistenti virtuali per risolvere situazioni ad alto stress. Poiché il loro modello può riconoscere l’umore, può suggerire tecniche di de-escalation o cambiare il tono quando si rende conto che un consumatore sta diventando arrabbiato. Contromisure come queste possono migliorare la soddisfazione e la fedeltà dei clienti.

Aiuto agli Studenti in Classe

Gli educatori possono utilizzare questa intelligenza artificiale per impedire che gli studenti a distanza rimangano indietro. Una startup ha già utilizzato il suo strumento per misurare i punti muscolari sui volti degli studenti mentre cataloga la loro velocità e i voti. Questo metodo determina il loro umore, la motivazione, i punti di forza e di debolezza. Il fondatore della startup afferma che ottengono voti più alti del 10% nei test quando utilizzano il software.

Esecuzione di Ricerche di Mercato Interne

Le aziende possono condurre ricerche di mercato interne utilizzando un modello di riconoscimento delle emozioni. Ciò può aiutarle a comprendere esattamente come il loro pubblico di riferimento reagisce al loro prodotto, servizio o materiale di marketing, fornendo loro preziosi insight basati sui dati. Di conseguenza, potrebbero accelerare il time-to-market e aumentare i loro ricavi.

Il Problema dell’Utilizzo dell’Intelligenza Artificiale per Rilevare le Emozioni

La ricerca suggerisce che l’accuratezza dipende fortemente dalle informazioni di training. Un gruppo di ricerca – che ha cercato di decifrare i sentimenti dalle immagini – ha dimostrato anedoticamente questo concetto quando il loro modello ha raggiunto un’accuratezza del 92,05% sul set di dati delle espressioni facciali femminili giapponesi e un’accuratezza del 98,13% sul set di dati Extended Cohn-Kanade.

Sebbene la differenza tra il 92% e il 98% possa sembrare insignificante, è importante – questa lieve discordanza potrebbe avere conseguenze sostanziali. A titolo di riferimento, un tasso di avvelenamento dei dati basso come lo 0,001% si è dimostrato efficace nell’istituire backdoor del modello o nel causare intenzionalmente errori di classificazione. Anche una frazione di percentuale è significativa.

Inoltre, sebbene gli studi sembrino promettenti – tassi di accuratezza superiori al 90% mostrano potenziale – i ricercatori li conducono in ambienti controllati. Nel mondo reale, immagini sfocate, espressioni facciali contraffatte, angolazioni scadenti e sentimenti sottili sono molto più comuni. In altre parole, l’intelligenza artificiale potrebbe non essere in grado di eseguire in modo coerente.

Lo Stato Attuale dell’Intelligenza Artificiale per il Riconoscimento delle Emozioni

L’analisi del sentimento algoritmico è il processo di utilizzo di un algoritmo per determinare se il tono del testo è positivo, neutro o negativo. Questa tecnologia è probabilmente la base per i moderni modelli di rilevamento delle emozioni, poiché ha aperto la strada alle valutazioni algoritmiche dell’umore. Tecnologie simili come il software di riconoscimento facciale hanno anche contribuito ai progressi.

Gli algoritmi di oggi possono principalmente rilevare solo umori semplici come felicità, tristezza, rabbia, paura e sorpresa con gradi di accuratezza variabili. Queste espressioni facciali sono innate e universali – ovvero sono naturali e globalmente comprese – quindi addestrare un’intelligenza artificiale a identificarle è relativamente semplice.

Inoltre, le espressioni facciali di base sono spesso esagerate. Le persone corrugano le sopracciglia quando sono arrabbiate, si imbronciscono quando sono tristi, sorridono quando sono felici e spalancano gli occhi quando sono scioccati. Questi aspetti semplici e drammatici sono facili da distinguere. Le emozioni più complesse sono più difficili da individuare perché sono sottili o combinano espressioni di base.

Poiché questo subset di intelligenza artificiale rimane in gran parte in fase di ricerca e sviluppo, non è ancora progredito per coprire emozioni complesse come la nostalgia, la vergogna, il dolore, la gelosia, il sollievo o la confusione. Sebbene probabilmente le coprirà in futuro, non c’è garanzia che sarà in grado di interpretarle tutte.

In realtà, gli algoritmi potrebbero non essere in grado di competere con gli esseri umani. A titolo di riferimento, mentre il dataset GPT-4 di OpenAI è di circa 1 petabyte, un singolo millimetro cubo di cervello umano contiene circa 1,4 petabyte di dati. I neuroscienziati non possono ancora comprendere appieno come il cervello percepisca le emozioni nonostante decenni di ricerca, quindi costruire un’intelligenza artificiale altamente precisa potrebbe essere impossibile.

Sebbene l’utilizzo di questa tecnologia per il riconoscimento delle emozioni abbia precedenti, questo campo è ancora tecnicamente nella sua infanzia. C’è un’abbondanza di ricerche sul concetto, ma pochi esempi di distribuzione su larga scala esistono. Alcuni segni indicano che un’adozione lenta potrebbe derivare da preoccupazioni riguardo all’accuratezza inconsistente e alle questioni etiche.

Considerazioni Etiche per gli Sviluppatori di Intelligenza Artificiale

Secondo un sondaggio, il 67% dei rispondenti concorda che l’intelligenza artificiale dovrebbe essere regolamentata di più o molto di più. Per mettere a riposo le menti delle persone, gli sviluppatori dovrebbero minimizzare i pregiudizi, assicurarsi che i loro modelli si comportino come previsto e migliorare i risultati. Queste soluzioni sono possibili se danno priorità alle considerazioni etiche durante lo sviluppo.

1. Raccolta e Utilizzo dei Dati con il Consenso

Il consenso è tutto in un’epoca in cui la regolamentazione dell’intelligenza artificiale sta aumentando. Cosa succede se gli impiegati scoprono che le loro espressioni facciali vengono catalogate senza la loro conoscenza? I genitori devono firmare l’analisi del sentimento basata sull’istruzione o gli studenti possono decidere da soli?

Gli sviluppatori dovrebbero esplicitamente dichiarare quali informazioni il modello raccoglierà, quando sarà in funzione, a cosa sarà utilizzata l’analisi e chi potrà accedere a quei dettagli. Inoltre, dovrebbero includere funzionalità di opt-out in modo che gli individui possano personalizzare le autorizzazioni.

2. Output dell’Analisi del Sentimento Anonimizzato

L’anonimizzazione dei dati è tanto un problema di privacy quanto un problema di sicurezza. Gli sviluppatori dovrebbero anonimizzare le informazioni sulle emozioni che raccolgono per proteggere gli individui coinvolti. Almeno, dovrebbero considerare seriamente l’utilizzo della crittografia a riposo.

3. Processo Decisionale con Intervento Umano

L’unico motivo per utilizzare l’intelligenza artificiale per determinare lo stato emotivo di qualcuno è quello di informare il processo decisionale. Sia che venga utilizzato in un contesto di salute mentale o in un ambiente retail, avrà un impatto sulle persone. Gli sviluppatori dovrebbero sfruttare le garanzie con intervento umano per minimizzare il comportamento inaspettato.

4. Feedback Umano per l’Output dell’Intelligenza Artificiale

Anche se un algoritmo ha un’accuratezza quasi del 100%, produrrà comunque falsi positivi. Considerando che non è insolito per i modelli raggiungere il 50% o il 70% – e che è senza toccare il pregiudizio o i problemi di allucinazione – gli sviluppatori dovrebbero considerare l’implementazione di un sistema di feedback.

Le persone dovrebbero essere in grado di esaminare cosa l’intelligenza artificiale dice sul loro stato emotivo e fare appello se ritengono che sia falso. Sebbene un tale sistema richiederebbe parapetti e misure di responsabilità, minimizzerebbe gli impatti avversi derivanti da output inaccurati.

Le Conseguenze dell’Ignorare l’Etica

Le considerazioni etiche dovrebbero essere una priorità per gli ingegneri di intelligenza artificiale, gli sviluppatori di apprendimento automatico e i proprietari di aziende perché li riguarda. Considerando l’opinione pubblica sempre più incerta e le norme sempre più strette, le conseguenze dell’ignorare l’etica possono essere significative.

Zac Amos è uno scrittore di tecnologia che si concentra sull'intelligenza artificiale. È anche il caporedattore delle funzionalità di ReHack, dove puoi leggere altro del suo lavoro.