ciot Inginerii AI dezvoltă o metodă care poate detecta intenția celor care răspândesc informații greșite - Unite.AI
Conectează-te cu noi

Inteligenta Artificiala

Inginerii AI dezvoltă o metodă care poate detecta intenția celor care răspândesc informații greșite

mm
Actualizat on

Confruntarea cu dezinformarea în era digitală este o problemă complexă. Nu numai că informațiile greșite trebuie identificate, etichetate și corectate, ci și intenția celor responsabili de a face reclamația trebuie să fie de asemenea distinsă. O persoană poate răspândi, fără să știe, informații greșite sau doar să-și dea părerea cu privire la o problemă, chiar dacă ulterior este raportată ca fapt. Recent, o echipă de cercetători și ingineri AI de la Dartmouth a creat un cadru care poate fi folosit pentru a obține o opinie din rapoartele „știrilor false”.

După cum raportează ScienceDaily, studiul echipei Dartmouth a fost publicat recent în Journal of Experimental & Theoretical Artificial Intelligence. În timp ce studiile anterioare au încercat să identifice știrile false și să lupte împotriva înșelăciunii, acesta ar putea fi primul studiu care și-a propus să identifice intenția vorbitorului într-o știre. În timp ce o poveste adevărată poate fi răsucită în diferite forme înșelătoare, este important să distingem dacă înșelăciunea a fost sau nu intenționată. Echipa de cercetare susține că intenția contează atunci când se ia în considerare dezinformarea, deoarece înșelăciunea este posibilă numai dacă a existat intenția de a induce în eroare. Dacă o persoană nu și-a dat seama că răspândește dezinformări sau dacă doar își dădea cu părerea, nu poate exista înșelăciune.

Eugene Santos Jr., profesor de inginerie la Școala de Inginerie Thayer din Dartmouth, a explicat pentru ScienceDaily de ce modelul lor încearcă să distingă intenția înșelătoare:

„Intenția înșelătoare de a induce în eroare ascultătorii intenționat reprezintă o amenințare mult mai mare decât greșelile neintenționate. Din câte știm, algoritmul nostru este singura metodă care detectează înșelăciunea și, în același timp, discriminează actele rău intenționate de actele benigne.”

Pentru a-și construi modelul, echipa de cercetare a analizat trăsăturile raționamentului înșelător. Algoritmul rezultat ar putea distinge intenția de a înșela de alte forme de comunicare concentrându-se pe discrepanțe între argumentele trecute ale unei persoane și declarațiile actuale ale unei persoane. Modelul construit de echipa de cercetare are nevoie de cantități mari de date care pot fi folosite pentru a măsura modul în care o persoană se abate de la argumentele din trecut. Datele de instruire pe care echipa le-a folosit pentru a-și antrena modelul au constat în date preluate dintr-un sondaj de opinii pe subiecte controversate. Peste 100 de persoane și-au exprimat părerea asupra acestor probleme controversate. Datele au fost, de asemenea, extrase din recenzii ale a 20 de hoteluri diferite, constând din 400 de recenzii fictive și 800 de recenzii reale.

Potrivit lui Santo, cadrul dezvoltat de cercetători ar putea fi rafinat și aplicat de către organizațiile de știri și cititori, pentru a le permite să analizeze conținutul articolelor „știri false”. Cititorii ar putea examina articolele pentru prezența opiniilor și pot determina ei înșiși dacă a fost folosit un argument logic. Santos a mai spus că echipa dorește să examineze impactul dezinformării și efectele undă pe care le are.

Cultura populară descrie adesea comportamente non-verbale, cum ar fi expresiile faciale, ca indicatori că cineva minte, dar autorii studiului notează că aceste indicii comportamentale nu sunt întotdeauna indicatori de încredere ai minciunii. Deqing Li, coautor al lucrării, a explicat că cercetările lor au descoperit că modelele bazate pe intenția de raționament sunt indicatori mai buni ai minciunii decât diferențele comportamentale și verbale. Li a explicat că modelele de intenție de raționament „sunt mai bine să distingă minciunile intenționate de alte tipuri de distorsiuni ale informațiilor”.

Munca cercetătorilor de la Dartmouth nu este singurul progres recent când vine vorba de combaterea dezinformarii cu ajutorul AI. Articolele de știri cu titluri clickbait maschează adesea dezinformarea. De exemplu, ele sugerează adesea că un lucru s-a întâmplat atunci când a avut loc un alt eveniment.

După cum a raportat AINews, o echipă de cercetători de la Arizona State University și Penn State University a colaborat pentru a crea o inteligență artificială care să detecteze clickbait. Cercetătorii le-au cerut oamenilor să scrie propriile titluri clickbait și, de asemenea, au scris un program pentru a genera titluri clickbait. Ambele forme de titluri au fost apoi folosite pentru a antrena un model care ar putea detecta eficient titlurile clickbait, indiferent dacă au fost scrise de mașini sau de oameni.

Potrivit cercetătorilor, algoritmul lor a fost cu aproximativ 14.5% mai precis, atunci când a fost vorba de detectarea titlurilor clickbait, decât au fost alte AI în trecut. Cercetătorul principal al proiectului și profesor asociat la Colegiul de Științe și Tehnologie a Informației din Penn State, Dongwon Lee, a explicat modul în care experimentul lor demonstrează utilitatea generării de date cu o IA și a le reintroduce într-un canal de formare.

„Acest rezultat este destul de interesant, deoarece am demonstrat cu succes că datele de antrenament clickbait generate de mașină pot fi reintroduse în conducta de antrenament pentru a antrena o mare varietate de modele de învățare automată pentru a avea performanțe îmbunătățite”, a explicat Lee.

Blogger și programator cu specialități în Invatare mecanica și Invatare profunda subiecte. Daniel speră să-i ajute pe alții să folosească puterea AI pentru binele social.