Kunstig intelligens
Google har forbudt trening av deepfakes i Colab

Noen gang i løpet av de siste to ukene, har Google stille endret betingelsene for tjenesten for sine Colab-brukere, ved å legge til en bestemmelse som sier at Colab-tjenestene ikke lenger kan brukes til å trene deepfakes.

Mai-opdateringen bringer et forbud mot deepfakes til Colab. Kilde: https://research.google.com/colaboratory/faq.html#limitations-and-restrictions
Den første web-arkiverte versjonen fra Internet Archive som inneholder forbudet mot deepfakes, ble fanget sist tirsdag, 24. mai. Den siste fanget versjon av Colab FAQ som ikke nevner forbudet, var på 14. mai.
Av de to populære deepfake-oppsettene, DeepFaceLab (DFL) og FaceSwap, som begge er forks av den kontroversielle og anonyme koden som ble postet på Reddit i 2017, ser det ut til at bare det mer notoriske DFL har blitt direkte rammet av forbudet. Ifølge deepfake-utvikler ‘chervonij’ på DFL Discord, vil kjøring av programvaren i Google Colab nå produsere en advarsel:
‘Du kan være i ferd med å kjøre kode som ikke er tillatt, og dette kan begrense din evne til å bruke Colab i fremtiden. Vennligst merk de forbudte handlinger som er spesifisert i vår FAQ.’
Men interessant nok, er brukeren for øyeblikket tillatt å fortsette med kjøringen av koden.

Den nye advarselen som hilste DFL deepfakers som prøvde å kjøre koden på Google Colab. Kilde: https://discord.com/channels/797172242697682985/797391052042010654/979823182624219136
Ifølge en bruker i Discord for rivaliserende distribusjon FaceSwap, ser det ut til at prosjektets kode ikke utløser advarselen, noe som tyder på at koden for DeepFaceLab (som også er arkitekturen for sanntids deepfake-strømming DeepFaceLive), som er den mest dominante deepfakes-metoden, har blitt spesifikt rammet av Colab.
FaceSwap co-lead utvikler Matt Tora kommenterte*:
‘Jeg finner det svært usannsynlig at Google gjør dette av noen spesielle etiske årsaker, mer at Colabs grunnleggende formål er for studenter/dataforskere/forskere å kunne kjøre beregningskrevende GPU-kode på en enkel og tilgjengelig måte, uten kostnad. Men jeg mistenker at en ikke ubetydelig mengde brukere utnytter denne ressursen til å lage deepfake-modeller, i stor skala, noe som er både beregningskrevende og tar en ikke ubetydelig mengde treningstid å produsere resultater.’
‘Du kunne si at Colab lener mer mot den utdannelsesmessige, forskningsmessige siden av AI. Kjøring av skript som krever liten brukerinput, eller forståelse, tenderer å gå mot denne. Hos Faceswap prøver vi å fokusere på å utdanne brukeren i AI og mekanismene som er involvert, samtidig som vi senker terskelen for inngang. Vi oppmuntrer sterkt til etisk bruk av programvaren og føler at å gjøre disse verktøyene tilgjengelige for en bredere publikum hjelper til å utdanne folk i hva som er mulig i dagens verden, i stedet for å holde det skjult for et utvalg få.’
‘Uheldigvis kan vi ikke kontrollere hvordan våre verktøy ultimate brukes, eller hvor de kjøres. Det sørger meg at en avenue har blitt stengt for folk til å eksperimentere med vår kode, men i forhold til å beskytte denne ressursen for å sikre dens tilgjengelighet til den faktiske målgruppen, finner jeg det forståelig.’
Det finnes ingen bevis for at den nye restriksjonen bare er begrenset til den gratis versjonen av Google Colab – på bunnen av listen over forbudte aktiviteter som deepfakes nå er lagt til, er notatet ‘Ekstra restriksjoner eksisterer for betalte brukere’, noe som indikerer at disse er basisreguleringer. I forhold til deepfakes-forbudet, har dette forvirret noen, siden ‘kryptokurrency-utvinning’ og ‘deltagelse i peer-til-peer-fildeling’ er inkludert i både den gratis og pro ‘Restriksjoner’-seksjonen.
Ifølge denne logikken, er alt som er forbudt i den gratis ‘Restriksjoner’-seksjonen tillatt i Pro-versjonen, så lenge Pro-versjonen ikke uttrykkelig forbudet, inkludert ‘kjøring av nekt-å-tjeneste-angrep’ og ‘passord-knusing’. De ekstra restriksjonene for Pro-nivået er hovedsakelig opptatt av å ikke ‘underleie’ Pro Colab-tilgang, til tross for de forvirrende og selektive duplikate-forbudene.
Google Colab er en dedikert implementering av Jupyter-notebok-miljøer, som tillater fjernetrening av maskinlæringsprosjekter på langt kraftigere GPU-er enn mange brukere kan betale for.
Siden deepfake-trening er en VRAM-krevende aktivitet, og siden begynnelsen av GPU-krigen, har mange deepfakers i de siste årene valgt å avstå fra hjemmetrening til fordel for fjernetrening i Colab, der det er mulig, avhengig av sjansen og nivå, å trene en deepfake-modell på kraftige kort som Tesla T4 (16GB VRAM, for tiden rundt 2 000 USD), V100 (32GB VRAM, rundt 4 000 USD), og den mektige A100 (80GB VRAM, MSRP på 32 097,00 USD), blant andre.
Forbudet mot Colab-trening ser ut til å redusere mengden deepfakers som kan trene høyoppløselige modeller, der inn- og utgangsbildene er større, mer egnet til høyoppløselige resultater, og i stand til å trekke ut og gjengi større ansiktsdetaljer.
Noen av de mest dedikerte deepfake-hobbyistene og entusiastene, ifølge Discord- og forum-innlegg, har investert tungt i lokal maskinvare i løpet av de siste to årene, til tross for de høye prisene på GPU-er.
Men gitt de høye kostnadene, har under-samfunn oppstått for å håndtere utfordringene med å trene deepfakes på Colab, med tilfeldig GPU-tilordning som det vanligste klagen siden Colab begrenset bruken av høyere-end-GPU-er til gratisbrukere.
* I private meldinger på Discord
Først publisert 28. mai 2022.
Revidert 7:28 EST, korreksjon av sitat-feil.
Revidert 12:40pm EST – lagt til forklaring om gratis- og pro-nivå deepfake-forbud, så godt det kan forstås fra ‘gratis’ og ‘pro’-listene over forbud.










