Connect with us

Unelte de browser AI își propun să recunoască Deepfakes și alte medii false

Inteligență artificială

Unelte de browser AI își propun să recunoască Deepfakes și alte medii false

mm

Eforturile companiilor tehnologice de a combate dezinformarea și conținutul fals sunt în plină desfășurare în ultima perioadă, pe măsură ce tehnologiile de generare a conținutului fals sofisticat, cum ar fi DeepFakes, devin mai ușor de utilizat și mai rafinate. O încercare iminentă de a ajuta oamenii să detecteze și să lupte împotriva deepfakes este RealityDefender, produs de AI Foundation, care s-a angajat să dezvolte agenți și asistenți AI etici pe care utilizatorii îi pot antrena pentru a completa diverse sarcini.

Proiectul cel mai notabil al AI Foundation este o platformă care permite oamenilor să creeze propriile lor personaje digitale care arată ca ei și îi reprezintă în spațiile virtuale de socializare. AI Foundation este supravegheat de Consiliul Global AI și, ca parte a mandatului lor, trebuie să anticipeze impacturile negative posibile ale platformelor AI, apoi să încerce să preîntâmpine aceste probleme. Așa cum a raportat VentureBeat, Unul dintre uneltele pe care AI Foundation le-a creat pentru a ajuta la detectarea deepfakes este denumit Reality Defender. Reality Defender este un instrument pe care o persoană îl poate utiliza în browserul său web (verificați), care va analiza videoclipuri, imagini și alte tipuri de medii pentru a detecta semne că mediul a fost falsificat sau modificat într-un anumit mod. Se speră că instrumentul va ajuta la combaterea fluxului tot mai mare de deepfakes de pe internet, care, potrivit unor estimări, s-a dublat aproximativ în ultimele șase luni.

Reality Defender funcționează prin utilizarea unei varietăți de algoritmi bazate pe IA care pot detecta indicii care sugerează că o imagine sau un videoclip ar putea fi falsificate. Modelele IA detectează semne subtile de înșelăciune și manipulare, iar rezultatele false pozitive detectate de model sunt etichetate ca incorecte de către utilizatorii instrumentului. Datele sunt apoi utilizate pentru a reantrena modelul. Companiile de IA care creează deepfakes neînșelătoare au conținutul etichetat cu o etichetă “IA onestă” sau o filigrană care permite oamenilor să identifice cu ușurință falsurile generate de IA.

Reality Defender este doar una dintre o suită de unelte și o întreagă platformă de responsabilitate AI pe care AI Foundation încearcă să o creeze. AI Foundation urmărește crearea lui Guardian AI, o platformă de responsabilitate construită pe principiul că indivizii ar trebui să aibă acces la agenți AI personali care lucrează pentru ei și care pot ajuta la protejarea împotriva exploatării lor de către actori răi. În esență, AI Foundation își propune atât să extindă raza de acțiune a IA în societate, aducând-o la mai multe persoane, cât și să protejeze împotriva riscurilor IA.

Reality Defender nu este singurul produs nou bazat pe IA care își propune să reducă dezinformarea în Statele Unite. Un produs similar se numește SurfSafe, care a fost creat de doi studenți de la UC Berkeley, Rohan Phadte și Ash Bhat. Conform The Verge, SurfSafe funcționează prin permiterea utilizatorilor săi să facă clic pe un fragment de mediu despre care sunt curioși și programul va efectua o căutare inversă a imaginii și va încerca să găsească conținut similar din diverse surse de încredere de pe internet, marcând imaginile cunoscute ca fiind falsificate.

Nu este clar cât de eficiente vor fi aceste soluții pe termen lung. Profesorul de la Dartmouth College și expertul în forensică Hany Farid a fost citat de The Verge spunând că este “extrem de sceptic” cu privire la faptul că sistemele precum Reality Defender vor funcționa într-un mod semnificativ. Farid a explicat că una dintre principalele provocări în detectarea conținutului fals este că mediul nu este pur și simplu fals sau real.

Farid a explicat:

“Există un continuum; o gamă incredibil de complexă de probleme de abordat. Unele modificări sunt insemnate, iar altele alterează fundamental natura unei imagini. A pretinde că putem antrena o IA să detecteze diferența este incredibil de naiv. Și a pretinde că putem externaliza aceasta este și mai mult.”

Mai mult, este dificil să se includă elemente de externalizare, cum ar fi etichetarea falselor pozitive, deoarece oamenii sunt, de obicei, foarte slabi în identificarea imaginilor false. Oamenii fac adesea greșeli și ratează detalii subtile care marchează o imagine ca fiind falsă. De asemenea, nu este clar cum să se facă față actorilor cu rea-credință care fac trolling atunci când marchează conținutul.

Se pare probabil că, pentru a fi maxim de eficiente, uneltele de detectare a falsurilor vor trebui să fie combinate cu eforturi de alfabetizare digitală care să învețe oamenii cum să raționeze despre conținutul cu care interacționează online.

Blogger și programator cu specializări în Machine Learning și Deep Learning subiecte. Daniel speră să ajute pe alții să folosească puterea inteligenței artificiale pentru binele social.