Connect with us

Experții AI Clasifică Deepfakes și Alte 19 Crime Bazate pe IA După Nivelul de Pericol

Inteligență artificială

Experții AI Clasifică Deepfakes și Alte 19 Crime Bazate pe IA După Nivelul de Pericol

mm

Un nou raport publicat de University College London a urmărit să identifice multiplele moduri în care IA ar putea ajuta potențial criminalii în următorii 15 ani. Raportul a avut 31 de experți IA care au evaluat 20 de metode diferite de utilizare a IA pentru a comite crime și le-au clasificat în funcție de diverse factori. Experții IA au clasificat crimele în funcție de variabile precum cât de ușor ar fi să comiți crima, prejudiciul social potențial pe care crima l-ar putea provoca, suma de bani pe care un criminal ar putea să o obțină și cât de greu ar fi să oprești crima. Conform rezultatelor raportului, Deepfakes reprezintă cea mai mare amenințare pentru cetățenii onești și societate în general, deoarece potențialul lor de exploatare de către criminali și teroriști este ridicat.

Experții IA au clasificat deepfakes în fruntea listei de amenințări IA potențiale, deoarece deepfakes sunt greu de identificat și de contracarat. Deepfakes devin tot mai bune la înșelarea chiar și a experților în deepfakes și a altor metode bazate pe IA de detectare a deepfakes, care sunt adesea neverosimile. În ceea ce privește capacitatea lor de a provoca prejudicii, deepfakes pot fi ușor utilizate de actori răi pentru a discredita figuri de încredere, experți, sau pentru a încerca să înșele oamenii, pretinzând a fi persoane de încredere sau rude. Dacă deepfakes sunt abundente, oamenii ar putea începe să piardă încrederea în orice mediu audio sau video, ceea ce ar putea duce la pierderea încrederii în validitatea evenimentelor și faptelor reale.

Dr. Matthew Caldwell, de la UCL Computer Science, a fost primul autor al lucrării. Caldwell subliniază creșterea pericolului deepfakes, pe măsură ce tot mai multă activitate se desfășoară online. Așa cum a fost citat Caldwell de UCL News:

„În contrast cu multe crime tradiționale, crimele din domeniul digital pot fi ușor distribuite, repetate și chiar vândute, permițând tehnicilor criminale să fie comercializate și crimei să fie oferită ca serviciu. Acest lucru înseamnă că criminalii ar putea să externalizeze aspectele mai dificile ale crimei lor bazate pe IA.”

Echipa de experți a clasificat cinci alte tehnologii IA emergente ca fiind foarte îngrijorătoare, ca posibili catalizatori pentru noi tipuri de crime: vehicule fără șofer utilizate ca arme, atacuri de hack asupra sistemelor și dispozitivelor controlate de IA, colectarea de date online în scopul șantajului, phishing bazat pe IA cu mesaje personalizate și știri false/informare generală.

Conform lui Shane Johnson, Directorul Centrului Dawes pentru Crimele Viitorului de la UCL, scopul studiului a fost de a identifica posibilele amenințări asociate cu noile tehnologii emergente și de a presupune modalități de a preveni aceste amenințări. Johnson spune că, pe măsură ce viteza schimbărilor tehnologice crește, este imperativ „să anticipăm amenințările criminale viitoare, astfel încât factorii de decizie și alte părți interesate cu competența de a acționa să poată face acest lucru înainte de a apărea noi ‘recolte de crime’”.

În ceea ce privește celelalte 14 posibile crime de pe listă, acestea au fost împărțite în două categorii: îngrijorare moderată și îngrijorare scăzută.

Crimele IA cu îngrijorare moderată includ utilizarea abuzivă a roboților militari, otrăvirea datelor, atacurile cu drone automate, atacurile cibernetice bazate pe învățare, atacurile de refuz de servicii pentru activități online, manipularea piețelor financiare/bursiere, „ulei de șarpe” (vânzarea de servicii false, deghizate în terminologie IA/ML) și păcălirea recunoașterii faciale.

Crimele IA cu îngrijorare scăzută includ falsificarea de artă sau muzică, hărțuirea asistată de IA, recenzii false scrise de IA, evitarea metodelor de detectare IA și „boturile hoților” (boturi care sparg casele oamenilor pentru a fura lucruri).

Desigur, modelele IA însele pot fi utilizate pentru a combate unele dintre aceste crime. Recent, modelele IA au fost utilizate pentru a ajuta la detectarea schemelor de spălare a banilor, detectând tranzacții financiare suspecte. Rezultatele sunt analizate de operatori umani care aprobă sau resping alerta, iar feedback-ul este utilizat pentru a antrena mai bine modelul. Se pare probabil că viitorul va implica IA-uri care se luptă unele împotriva altora, cu criminali care încearcă să proiecteze cele mai bune unelte asistate de IA și securitate, aplicarea legii și alți designeri etici de IA care încearcă să creeze cele mai bune sisteme IA.

Blogger și programator cu specializări în Machine Learning și Deep Learning subiecte. Daniel speră să ajute pe alții să folosească puterea inteligenței artificiale pentru binele social.