Connect with us

Inteligență artificială

Google a interzis antrenarea de deepfakes în Colab

mm

La un moment dat în ultimele două săptămâni, Google a modificat în mod discret termenii de serviciu pentru utilizatorii Colab, adăugând o stipulare că serviciile Colab nu mai pot fi utilizate pentru antrenarea de deepfakes.

Actualizarea din mai aduce o interdicție de deepfake pentru Colab. Sursă: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

Actualizarea din mai aduce o interdicție de deepfake pentru Colab. Sursă: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

Prima versiune arhivată pe web din Internet Archive, care prezintă interdicția de deepfake, a fost capturată marți, 24 mai. Ultima versiune capturată a FAQ-ului Colab, care nu menționează interdicția, a fost pe 14 mai.

Dintre cele două distribuții populare de creare de deepfakes, DeepFaceLab (DFL) și FaceSwap, ambele fiind fork-uri ale codului controversat și anonim postat pe Reddit în 2017, doar DFL, care pare a fi mai notoriu, pare a fi fost vizat direct de interdicție. Conform dezvoltatorului de deepfakes ‘chervonij’ de la DFL Discord, rularea software-ului în Google Colab produce acum o avertizare:

‘Poate că executați cod care nu este permis și acest lucru poate restricționa capacitatea dvs. de a utiliza Colab în viitor. Vă rugăm să rețineți acțiunile interzise specificate în FAQ-ul nostru.’

Cu toate acestea, interesant, utilizatorul este în prezent autorizat să continue executarea codului.

Noua avertizare care a întâmpinat deepfakers DFL care au încercat să ruleze codul pe Google Colab. Sursă: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Noua avertizare care a întâmpinat deepfakers DFL care au încercat să ruleze codul pe Google Colab. Sursă: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Conform unui utilizator din Discord pentru distribuția rivală FaceSwap, codul acestui proiect nu pare să declanșeze încă avertizarea, sugerând că codul pentru DeepFaceLab (care este și arhitectura de alimentare pentru implementarea de streaming de deepfakes în timp real DeepFaceLive), care este cu mult cea mai dominantă metodă de deepfakes, a fost vizat în mod specific de Colab.

Co-lead developer Matt Tora a comentat*:

‘Consider că este foarte puțin probabil ca Google să facă acest lucru din motive etice, mai degrabă pentru că raison d’être-ul Colab este pentru studenți, oameni de știință și cercetători să poată rula coduri GPU computațional scumpe într-un mod ușor și accesibil, gratuit. Cu toate acestea, suspectez că o cantitate semnificativă de utilizatori exploatează această resursă pentru a crea modele de deepfakes, la scară, ceea ce este atât computațional scump, cât și necesită o perioadă semnificativă de timp de antrenament pentru a produce rezultate.’

‘Ați putea spune că Colab se înclinează mai mult spre partea educațională, de cercetare a IA. Executarea de scripturi care necesită puțină intrare de la utilizator, nici înțelegere, tinde să meargă împotriva acestui lucru. La FaceSwap, ne străduim să ne concentrăm pe educarea utilizatorului în IA și mecanismele implicate, în timp ce reducem bariera de intrare. Încurajăm foarte mult utilizarea etică a software-ului și simțim că punerea la dispoziție a acestor unelte pentru o audiență mai largă ajută la educarea oamenilor în ceea ce privește ceea ce este realizabil în lumea de astăzi, mai degrabă decât a-l ține ascuns pentru unii aleși.’

‘Din nefericire, nu putem controla modul în care sunt utilizate în final uneltele noastre, nici unde sunt rulate. Mă întristează că o cale a fost închisă pentru oameni să experimenteze cu codul nostru, cu toate acestea, în ceea ce privește protejarea acestei resurse pentru a asigura disponibilitatea sa pentru publicul țintă, o consider înțeleaptă.’

Nu există nicio dovadă că noua restricție este limitată doar la nivelul gratuit al Google Colab – la partea de jos a listei de activități interzise, la care deepfakes au fost adăugate, se află nota ‘Există restricții suplimentare pentru utilizatorii plătitori’, ceea ce indică faptul că acestea sunt reguli de bază. În ceea ce privește interdicția de deepfakes, acest lucru a confuzat pe unii, deoarece ‘minarea de criptomonede’ și ‘angajarea în partajarea fișierelor peer-to-peer’ sunt incluse în ambele secțiuni ‘Restricții’ gratuite și pro.

Prin urmare, tot ceea ce este interzis în secțiunea ‘Restricții’ gratuită este permis în versiunea Pro, atâta timp cât versiunea Pro nu interzice în mod explicit, inclusiv ‘rularea atacurilor de refuz de serviciu’ și ‘spargerea parolelor’. Restricțiile suplimentare pentru nivelul Pro se axează în principal pe faptul de a nu ‘subînchiria’ accesul Pro Colab, în ciuda interdicțiilor confuze și selective duplicate.

Google Colab este o implementare dedicată a mediilor Jupyter notebook, care permit antrenarea la distanță a proiectelor de învățare automată pe GPU-uri mult mai puternice decât cele pe care multe utilizatori le pot permite.

Deoarece antrenamentul de deepfakes este o activitate care consumă multă memorie video, și deoarece de la apariția foametei de GPU, mulți deepfakers în ultimii ani au abandonat antrenamentul la domiciliu în favoarea antrenamentului la distanță în Colab, unde, în funcție de șansă și nivel, este posibil să antrenezi un model de deepfakes pe cărți puternice, cum ar fi Tesla T4 (16GB VRAM, în prezent în jur de 2.000 de dolari), V100 (32GB VRAM, în jur de 4.000 de dolari) și puternicul A100 (80GB VRAM, MSRP de 32.097,00 dolari), printre altele.

Interdicția de antrenament în Colab pare să reducă probabilitatea ca deepfakers să poată antrena modele de înaltă rezoluție, unde imaginile de intrare și de ieșire sunt mai mari, mai potrivite pentru rezultate de înaltă rezoluție și capabile să extragă și să reproducă mai multe detalii faciale.

Unii dintre cei mai dedicați hobbisti și entuziaști de deepfakes, conform postărilor de pe Discord și forumuri, au investit puternic în hardware local în ultimii doi ani, în ciuda prețurilor ridicate ale GPU-urilor.

Cu toate acestea, având în vedere costurile ridicate implicate, au apărut subcomunități pentru a face față provocărilor antrenamentului de deepfakes pe Colab, alocarea aleatorie a GPU-urilor fiind cea mai frecventă plângere de la Colab, care a limitat utilizarea GPU-urilor de înaltă performanță pentru utilizatorii grați.

 

* În mesaje private pe Discord

Publicat pentru prima dată pe 28 mai 2022.
Revizuit la 7:28 AM EST, corectarea unei greșeli de citat.
Revizuit la 12:40 pm EST – adăugarea unei clarificări cu privire la interdicția de deepfakes pentru nivelurile gratuite și pro, așa cum poate fi înțeleasă din listele de interdicții ‘gratuit’ și ‘pro’.

Scriitor pe machine learning, specialist în domeniul sintezei de imagini umane. Foster head of research content la Metaphysic.ai.