ciot Google a interzis antrenarea Deepfakes în Colab - Unite.AI
Conectează-te cu noi

Inteligenta Artificiala

Google a interzis instruirea deepfake-urilor în Colab

mm
Actualizat on

Cândva în ultimele două săptămâni, Google a schimbat în liniște termenii și condițiile pentru utilizatorii săi Colab, adăugând o stipulare conform căreia serviciile Colab nu mai pot fi folosite pentru a antrena deepfake.

Actualizarea din mai aduce Colab o interdicție deepfake. Sursa: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

Actualizarea din mai aduce Colab o interdicție deepfake. Sursa: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions

Prima versiune arhivată web din Internet Archive care include interdicția deepfake a fost capturat marțea trecută, 24 mai. Ultima versiune capturată a întrebărilor frecvente Colab care o face nu menționați că interdicția era asupra 14th mai.

Dintre cele două distribuții populare de deepfake-creation, DeepFaceLab (DFL) și schimb de fețe, ambele fiind furculițe ale controversatului și anonim cod postat pe Reddit în 2017, doar cu atât mai mult notoriu DFL pare să fi fost vizat direct de interdicție. Potrivit dezvoltatorului deepfake „chervonij” de la DFL Discord, rulează acum software-ul în Google Colab produce un avertisment:

„Este posibil să executați cod care este interzis, iar acest lucru vă poate restricționa capacitatea de a utiliza Colab în viitor. Vă rugăm să rețineți acțiunile interzise specificate în Întrebări frecvente.'

Cu toate acestea, în mod interesant, utilizatorului i se permite în prezent să continue cu execuția codului.

Noul avertisment care i-a întâmpinat pe deepfakers DFL care încearcă să ruleze codul pe Google Colab. Sursa: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Noul avertisment care i-a întâmpinat pe deepfakers DFL care încearcă să ruleze codul pe Google Colab. Sursa: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136

Potrivit unui utilizator din Discord pentru distribuția rivală FaceSwap, codul acelui proiect aparent nu declanșează încă avertismentul, sugerând acel cod pentru DeepFaceLab (și arhitectura de alimentare pentru implementarea în timp real a streamingului deepfake). DeepFaceLive), de departe cea mai dominantă metodă de deepfakes, a fost vizată în mod special de Colab.

Co-lead developer FaceSwap Matt Tora a comentat*:

„Mi se pare foarte puțin probabil ca Google să facă acest lucru din motive etice particulare, mai mult că rațiunea de a fi a Colab este ca studenții/oamenii de știință de date/cercetătorii să poată rula un cod GPU costisitor din punct de vedere computațional într-un mod ușor și accesibil, fără încărca. Cu toate acestea, bănuiesc că o cantitate deloc nesemnificativă de utilizatori exploatează această resursă pentru a crea modele deepfake, la scară, care este atât costisitoare din punct de vedere computațional, cât și necesită o cantitate deloc nesemnificativă de timp de antrenament pentru a produce rezultate.

„Ați putea spune că Colab se înclină mai mult spre partea educațională, de cercetare a AI. Executarea scripturilor care necesită puțină intrare de utilizator și nici înțelegere tinde să fie contrară acestui lucru. La Faceswap, încercăm să ne concentrăm pe educarea utilizatorului în AI și mecanismele implicate, coborând în același timp bariera de intrare. Încurajăm foarte mult utilizarea etică a software-ului și considerăm că punerea la dispoziție a acestor tipuri de instrumente pentru un public mai larg ajută la educarea oamenilor în ceea ce privește ceea ce este realizabil în lumea de astăzi, mai degrabă decât să le țină ascuns pentru câțiva selectați.

„Din păcate, nu putem controla modul în care instrumentele noastre sunt utilizate în cele din urmă și nici unde sunt rulate. Mă întristează că a fost închisă o cale pentru ca oamenii să experimenteze cu codul nostru, totuși, în ceea ce privește protejarea acestei resurse pentru a asigura disponibilitatea ei pentru publicul țintă real, mi se pare de înțeles.

Nu există nicio dovadă că noua restricție este limitată doar la nivelul gratuit al Google Colab - în partea de jos a listei de activități interzise la care au fost adăugate acum deepfakes, este nota „Există restricții suplimentare pentru utilizatorii plătiți”, indicând că acestea sunt reglementări de bază. În ceea ce privește interdicția deepfakes, acest lucru i-a derutat pe unii, de atunci „exploatarea criptomonedei” și „implicarea în partajarea de fișiere peer-to-peer” sunt incluse atât în ​​secțiunea „Restricții” gratuită, cât și în cea pro.

După această logică, tot ceea ce este interzis în secțiunea gratuită „Restricții” este permis în versiunea Pro, atâta timp cât versiunea Pro nu interzice în mod explicit, inclusiv „executarea atacurilor de refuzare a serviciului' și „spararea parolei”. Restricțiile suplimentare pentru nivelul Pro se referă în principal la „subînchirierea” accesului Pro Colab, în ​​ciuda interdicțiilor duplicate confuze și selective.

Google Colab este o implementare dedicată a Caiet Jupyter medii, care permit instruirea de la distanță a proiectelor de învățare automată pe GPU-uri mult mai puternice decât își pot permite mulți utilizatori.

Deoarece antrenamentul deepfake este o urmărire înfometată de VRAM și de la apariția foametei GPU, mulți deepfake din ultimii ani au evitat antrenamentul la domiciliu în favoarea antrenamentului la distanță în Colab, unde este posibil, în funcție de șansă și nivel, să antreneze un deepfake. model pe cărți puternice, cum ar fi Tesla T4 (16 GB VRAM, în prezent aproximativ 2 USD), the V100 (32 GB VRAM, aproximativ 4 USD) și puternicul A100 (80 GB VRAM, MSRP de 32,097.00 USD), printre altele.

Interzicerea instruirii Colab pare să reducă numărul de deepfakers capabili să antreneze modele de rezoluție mai mare, unde imaginile de intrare și de ieșire sunt mai mari, mai potrivite pentru rezultate de înaltă rezoluție și capabile să extragă și să reproducă mai multe detalii faciale.

Unii dintre cei mai implicați pasionați și entuziaști de deepfake, potrivit Discord și postări pe forum, au investit masiv în hardware-ul local în ultimii doi ani, în ciuda prețurilor ridicate ale GPU-urilor.

Cu toate acestea, având în vedere costurile mari implicate, au apărut subcomunități care să facă față provocărilor antrenării deepfake-urilor pe Colabs, alocarea aleatorie a GPU-urilor fiind cea mai frecventă plângere, deoarece Colab a limitat utilizarea GPU-urilor de ultimă generație la utilizatorii gratuiti.

 

* În mesaje private pe Discord

Publicat prima dată pe 28 mai 2022.
Revizuit la 7:28 EST, corectarea greșelii de scriere a citatului.
Revizuită 12:40 pm EST – a adăugat clarificări cu privire la interdicțiile deepfake gratuite și pro nivel, după cum se poate înțelege cel mai bine din listele de interdicții „gratuite” și „pro”.

Scriitor despre învățare automată, inteligență artificială și date mari.
Site personal: martinanderson.ai
Contact: [e-mail protejat]
Twitter: @manders_ai