Inteligență artificială
Ingineri AI Dezvoltă Metodă Care Poate Detecta Intenția Celor Care Răspândesc Informații False

A face față informațiilor false în era digitală este o problemă complexă. Nu numai că informațiile false trebuie identificate, etichetate și corectate, dar intenția celor responsabili de afirmație trebuie de asemenea distinsă. O persoană poate răspândi informații false fără să știe, sau poate împărtăși doar părerea sa despre o problemă, chiar dacă ulterior este raportată ca fapt. Recent, o echipă de cercetători și ingineri AI de la Dartmouth a creat un cadru care poate fi utilizat pentru a deriva opinia din rapoartele de “știri false”.
Așa cum raportează ScienceDaily, studiul echipei de la Dartmouth a fost publicat recent în Journal of Experimental & Theoretical Artificial Intelligence. În timp ce studii anterioare au încercat să identifice știrile false și să lupte împotriva deceptivității, acesta ar putea fi primul studiu care a urmărit să identifice intenția vorbitorului într-un articol de știri. În timp ce o poveste adevărată poate fi distorsionată în diverse forme deceptivă, este important să se distingă dacă deceptivitatea a fost intenționată. Echipa de cercetare susține că intenția contează atunci când se ia în considerare informația falsă, deoarece deceptivitatea este posibilă doar dacă a existat intenția de a induce în eroare. Dacă o persoană nu și-a dat seama că răspândește informații false sau dacă a împărtășit doar părerea sa, nu poate exista deceptivitate.
Eugene Santos Jr., profesor de inginerie la Școala de Inginerie Thayer de la Dartmouth, a explicat pentru ScienceDaily de ce modelul lor încearcă să distingă intenția deceptivă:
“Intenția deceptivă de a induce în eroare ascultătorii în mod intenționat reprezintă o amenințare mult mai mare decât greșelile neintenționate. După cunoștințele noastre, algoritmul nostru este singura metodă care detectează deceptivitatea și, în același timp, discriminează actele malefice de cele benigne.”
Pentru a construi modelul lor, echipa de cercetare a analizat caracteristicile raționamentului deceptiv. Algoritmul rezultat a putut distinge intenția de a induce în eroare de alte forme de comunicare, concentrându-se pe discrepanțele dintre argumentele trecute ale unei persoane și declarațiile sale actuale. Modelul construit de echipa de cercetare necesită cantități mari de date care pot fi utilizate pentru a măsura cum o persoană se abate de la argumentele trecute. Datele de antrenament utilizate de echipă pentru a antrena modelul lor au constat în date preluate dintr-un sondaj de opinii pe teme controversate. Peste 100 de persoane și-au exprimat opinia cu privire la aceste teme controversate. Datele au fost extrase și din recenzii ale a 20 de hoteluri diferite, constând în 400 de recenzii fictive și 800 de recenzii reale.
Conform lui Santos, cadrul dezvoltat de cercetători poate fi rafinat și aplicat de organizațiile media și de cititori, pentru a le permite să analizeze conținutul articolelor de “știri false”. Cititorii pot examina articolele pentru a detecta prezența opiniilor și pentru a determina dacă a fost utilizat un argument logic. Santos a mai spus că echipa dorește să examineze impactul informațiilor false și efectele de undă pe care le are.
Cultura populară prezintă adesea comportamente non-verbale, cum ar fi expresiile faciale, ca indicatori că cineva minte, dar autorii studiului notează că aceste indicii comportamentale nu sunt întotdeauna indicatori de încredere ai minciunii. Deqing Li, coautor al lucrării, a explicat că cercetarea lor a arătat că modelele bazate pe intenția de raționament sunt indicatori mai buni ai minciunii decât diferențele comportamentale și verbale. Li a explicat că modelele de intenție de raționament “sunt mai bune la distingerea minciunilor intenționate de alte tipuri de distorsiune a informației”.
Lucrarea cercetătorilor de la Dartmouth nu este singura avansare recentă în lupta împotriva informațiilor false cu ajutorul inteligenței artificiale. Articolele de știri cu titluri de tip clickbait maschează adesea informații false. De exemplu, ele implică adesea că s-a întâmplat un anumit lucru, când de fapt s-a întâmplat un alt eveniment.
Așa cum raportează AINews, o echipă de cercetători de la Universitatea de Stat Arizona și Universitatea de Stat Penn au colaborat pentru a crea un AI care poate detecta titlurile de tip clickbait. Cercetătorii au cerut oamenilor să scrie titluri de tip clickbait și au scris, de asemenea, un program pentru a genera titluri de tip clickbait. Ambele tipuri de titluri au fost utilizate pentru a antrena un model care poate detecta eficient titlurile de tip clickbait, indiferent dacă au fost scrise de mașini sau de oameni.
Conform cercetătorilor, algoritmul lor a fost cu aproximativ 14,5% mai precis în detectarea titlurilor de tip clickbait decât alte IA din trecut. Cercetătorul principal al proiectului și profesor asociat la Colegiul de Științe și Tehnologie a Informației de la Penn State, Dongwon Lee, a explicat cum experimentul lor demonstrează utilitatea generării de date cu un AI și a hrănirii lor înapoi într-un pipeline de antrenament.
“Acest rezultat este destul de interesant, deoarece am demonstrat cu succes că datele de antrenament generate de mașină pentru clickbait pot fi hrănite înapoi în pipeline-ul de antrenament pentru a antrena o varietate largă de modele de învățare automată pentru a avea o performanță îmbunătățită”, a explicat Lee.












