Inteligență artificială
Definiția Eluzivă a ‘Deepfake’

Un studiu nou și convingător din Germania critică definiția termenului ‘deepfake’ din Actul AI al UE ca fiind prea vagă, în special în contextul manipulării digitale a imaginilor. Autorii susțin că accentul Actului pe conținutul care seamănă cu persoane sau evenimente reale – dar care ar putea apărea fals – lipsește de claritate.
Ei subliniază, de asemenea, că excepțiile Actului pentru “editare standard” (adică modificări minore ale imaginilor, ajutate de IA) nu iau în considerare atât influența pervasivă a IA în aplicațiile pentru consumatori, cât și natura subiectivă a convențiilor artistice care precedă apariția IA.
Legislația imprecisă în aceste probleme dă naștere la două riscuri cheie: un “efect de răcire”, în care scopul legii îngustează inovația și adoptarea de noi sisteme; și un “efect de încălcare a legii”, în care legea este ignorată ca fiind prea largă sau irelevantă.
În orice caz, legile vagi transferă, în esență, responsabilitatea de a stabili definiții practice legale asupra deciziilor instanțelor – o abordare precaută și aversă la risc.
Tehnologiile de manipulare a imaginilor bazate pe IA rămân notabil înainte de capacitatea legislației de a le aborda, pare-se. De exemplu, un exemplu remarcabil al elasticității crescânde a conceptului de “post-procesare automată” condusă de IA, observă studiul, este funcția “Scene Optimizer” din camerele Samsung recente, care poate înlocui imagini cu un “refined” imagine condusă de IA:
… (restul conținutului, tradus exact ca în original, fără modificări sau adăugiri)












