Συνδεθείτε μαζί μας

Ο άπιαστος ορισμός του «Deepfake»

Τεχνητή νοημοσύνη

Ο άπιαστος ορισμός του «Deepfake»

mm
Βασισμένο στο: https://unsplash.com/photos/man-sitting-on-chair-E9PFbdhZmus

Μια συναρπαστική νέα μελέτη από τη Γερμανία επικρίνει το Νόμος της ΕΕ για την Τεχνητή Νοημοσύνη ορισμός του όρου «deepfake» ως υπερβολικά ασαφής, ιδίως στο πλαίσιο της ψηφιακής χειραγώγησης εικόνων. Οι συγγραφείς υποστηρίζουν ότι η έμφαση του Νόμου σε περιεχόμενο που μοιάζει με πραγματικά πρόσωπα ή γεγονότα - ωστόσο ενδεχομένως εμφανίζονται ψεύτικο - στερείται σαφήνειας.

Τονίζουν επίσης ότι οι εξαιρέσεις του Νόμου για την «τυπική επεξεργασία» (δηλαδή, υποτιθέμενες μικρές τροποποιήσεις εικόνων με τη βοήθεια της Τεχνητής Νοημοσύνης) δεν λαμβάνουν υπόψη τόσο την διάχυτη επιρροή της Τεχνητής Νοημοσύνης στις καταναλωτικές εφαρμογές όσο και την υποκειμενική φύση των καλλιτεχνικών συμβάσεων που προηγούνται της έλευσης της Τεχνητής Νοημοσύνης.

Η ασαφής νομοθεσία σχετικά με αυτά τα ζητήματα δημιουργεί δύο βασικούς κινδύνους: ένα «φαινόμενο αποθάρρυνσης», όπου το ευρύ ερμηνευτικό πεδίο εφαρμογής του νόμου καταπνίγει την καινοτομία και την υιοθέτηση νέων συστημάτων· και ένα «φαινόμενο καταπάτησης του νόμου», όπου ο νόμος αγνοείται ως υπερβολικός ή άσχετος.

Και στις δύο περιπτώσεις, οι ασαφείς νόμοι μεταθέτουν ουσιαστικά την ευθύνη της θέσπισης πρακτικών νομικών ορισμών σε μελλοντικές δικαστικές αποφάσεις – μια προσεκτική και αποτρεπτική προσέγγιση της νομοθεσίας.

Φαίνεται ότι οι τεχνολογίες χειρισμού εικόνας που βασίζονται στην τεχνητή νοημοσύνη παραμένουν σημαντικά μπροστά από την ικανότητα της νομοθεσίας να τις αντιμετωπίσει. Για παράδειγμα, ένα αξιοσημείωτο παράδειγμα της αυξανόμενης ελαστικότητας της έννοιας της «αυτόματης» μετεπεξεργασίας που βασίζεται στην τεχνητή νοημοσύνη, παρατηρεί η εργασία, είναι η «Βελτιστοποιητής Σκηνής» λειτουργούν σε πρόσφατες κάμερες της Samsung, οι οποίες μπορούν να αντικαταστήσουν τις φωτογραφίες του φεγγαριού που έχουν τραβήξει ο χρήστης (α πρόκληση θέμα), με μια «εκλεπτυσμένη» εικόνα που βασίζεται στην Τεχνητή Νοημοσύνη:

Επάνω αριστερά, ένα παράδειγμα από το νέο χαρτί μιας πραγματικής εικόνας του φεγγαριού που τραβήχτηκε από το χρήστη, στα αριστερά μιας βελτιωμένης έκδοσης της Samsung που δημιουργήθηκε αυτόματα με το Scene Optimizer. Σωστά, η επίσημη απεικόνιση της Samsung για τη διαδικασία πίσω από αυτό. κάτω αριστερά, παραδείγματα από το χρήστη του Reddit u/ibreakphotos, που δείχνουν (αριστερά) μια σκόπιμα θολή εικόνα του φεγγαριού και (δεξιά), η Samsung επαναλαμβάνει αυτή την εικόνα – παρόλο που η αρχική φωτογραφία ήταν εικόνα οθόνης και όχι το πραγματικό φεγγάρι. Πηγές (δεξιόστροφα από πάνω αριστερά): https://arxiv.org/pdf/2412.09961; https://www.samsung.com/uk/support/mobile-devices/how-galaxy-cameras-combine-super-resolution-technologies-with-ai-to-produce-high-quality-images-of-the- φεγγάρι/; https://reddit.com/r/Android/comments/11nzrb0/samsung_space_zoom_moon_shots_are_fake_and_here/

Επάνω αριστερά, ένα παράδειγμα από τη νέα δημοσίευση μιας πραγματικής εικόνας της σελήνης που τραβήχτηκε από χρήστη, στα αριστερά μιας βελτιωμένης έκδοσης από τη Samsung που δημιουργήθηκε αυτόματα με το Scene Optimizer. Δεξιά, η επίσημη απεικόνιση της διαδικασίας πίσω από αυτό από τη Samsung. Κάτω αριστερά, παραδείγματα από τον χρήστη u/ibreakphotos του Reddit, που δείχνουν (αριστερά) μια σκόπιμα θολή εικόνα της σελήνης και (δεξιά), την επαναπροσδιορισμό αυτής της εικόνας από τη Samsung - παρόλο που η αρχική φωτογραφία ήταν μια εικόνα μιας οθόνης και όχι της πραγματικής σελήνης. Πηγές (δεξιόστροφα από πάνω αριστερά): https://arxiv.org/pdf/2412.09961; https://www.samsung.com/uk/support/mobile-devices/how-galaxy-cameras-combine-super-resolution-technologies-with-ai-to-produce-high-quality-images-of-the- φεγγάρι/; https://reddit.com/r/Android/comments/11nzrb0/samsung_space_zoom_moon_shots_are_fake_and_here/

Στο κάτω αριστερό μέρος της παραπάνω εικόνας, βλέπουμε δύο εικόνες του φεγγαριού. Αυτή στα αριστερά είναι φωτογραφία λαμβάνεται από χρήστη του Reddit. Εδώ, η εικόνα έχει σκόπιμα θολώσει και μειωθεί η κλίμακα από τον χρήστη.

Στα δεξιά της βλέπουμε μια φωτογραφία της ίδιας υποβαθμισμένης εικόνας που τραβήχτηκε με μια κάμερα Samsung με ενεργοποιημένη την επεξεργασία μετά την επεξεργασία με τεχνητή νοημοσύνη. Η κάμερα έχει «αυξήσει» αυτόματα το αναγνωρισμένο αντικείμενο «σελήνης», παρόλο που δεν ήταν η πραγματική σελήνη.

Το έγγραφο ασκεί βαθύτερη κριτική στο Καλύτερη λήψη χαρακτηριστικό που ενσωματώνεται στα πρόσφατα smartphone της Google – ένα αμφιλεγόμενος Λειτουργία τεχνητής νοημοσύνης που επεξεργάζεται τα «καλύτερα» σημεία μιας ομαδικής φωτογραφίας, σαρώνοντας πολλά δευτερόλεπτα μιας φωτογραφικής ακολουθίας, έτσι ώστε τα χαμόγελα να μετακινούνται προς τα εμπρός ή προς τα πίσω χρονικά, ανάλογα με τις ανάγκες, και να μην εμφανίζεται κανείς ενώ ανοιγοκλείνει τα μάτια του.

Η εργασία υποστηρίζει ότι αυτό το είδος σύνθετης διαδικασίας έχει τη δυνατότητα να παραποιήσει γεγονότα:

«[Σε] μια τυπική ρύθμιση ομαδικής φωτογραφίας, ένας μέσος θεατής πιθανότατα θα εξακολουθεί να θεωρεί τη φωτογραφία που προκύπτει ως αυθεντική. Το χαμόγελο που εισάγεται υπήρχε μέσα σε λίγα δευτερόλεπτα από τη λήψη της υπόλοιπης φωτογραφίας.

«Από την άλλη πλευρά, το δέκα δευτερόλεπτο χρονικό πλαίσιο του καλύτερου χαρακτηριστικού λήψης είναι αρκετό για μια αλλαγή διάθεσης. Ένα άτομο μπορεί να έχει σταματήσει να χαμογελά ενώ η υπόλοιπη ομάδα γελάει για ένα αστείο σε βάρος τους.

«Κατά συνέπεια, υποθέτουμε ότι μια τέτοια ομαδική φωτογραφία μπορεί κάλλιστα να αποτελεί μια βαθιά ψεύτικη φωτογραφία.»

The νέο χαρτί είναι ο τίτλος Τι είναι ένα Deep Fake; Η θολή γραμμή μεταξύ της νόμιμης επεξεργασίας και της χειραγώγησης βάσει του νόμου της ΕΕ για την τεχνητή νοημοσύνη, και προέρχεται από δύο ερευνητές στο Computational Law Lab στο Πανεπιστήμιο του Tübingen και στο Πανεπιστήμιο του Saarland.

Παλιά κόλπα

Η χειραγώγηση του χρόνου στη φωτογραφία είναι πολύ παλαιότερη από την Τεχνητή Νοημοσύνη σε επίπεδο καταναλωτή. Οι συγγραφείς της νέας εργασίας σημειώνουν την ύπαρξη πολύ παλαιότερων τεχνικών που μπορούν να θεωρηθούν «μη αυθεντικές», όπως η συνένωση πολλαπλών διαδοχικών εικόνων σε ένα Υψηλή δυναμική εμβέλεια φωτογραφία (HDR) ή α «ραμμένο» πανοραμική φωτογραφία.

Πράγματι, μερικά από τα παλαιότερα και πιο διασκεδαστικά φωτογραφικά ψεύτικα δημιουργήθηκαν παραδοσιακά από μαθητές που έτρεχαν από τη μια άκρη μιας σχολικής ομάδας στην άλλη, μπροστά από την τροχιά της ειδικής πανοραμικές κάμερες που χρησιμοποιήθηκαν κάποτε για αθλητικές και σχολικές ομαδικές φωτογραφίες – δίνοντας τη δυνατότητα στον μαθητή να εμφανίζεται δύο φορές στην ίδια εικόνα:

Ο πειρασμός να ξεγελάσουν τις πανοραμικές κάμερες κατά τη διάρκεια ομαδικών φωτογραφιών ήταν υπερβολικός για να αντισταθούν πολλοί μαθητές, οι οποίοι ήταν διατεθειμένοι να ρισκάρουν μια κακή συνεδρία στο γραφείο της διεύθυνσης προκειμένου να «κλωνοποιηθούν» στις σχολικές φωτογραφίες. Πηγή: https://petapixel.com/2012/12/13/double-exposure-a-clever-photo-prank-from-half-a-century-ago/

Ο πειρασμός να ξεγελάσουν τις πανοραμικές κάμερες κατά τη διάρκεια ομαδικών φωτογραφιών ήταν πολύ μεγάλος για πολλούς μαθητές, οι οποίοι ήταν πρόθυμοι να ρισκάρουν μια κακή φωτογράφιση στο γραφείο του διευθυντή προκειμένου να «κλωνοποιήσουν» τον εαυτό τους σε σχολικές φωτογραφίες. Πηγή: https://petapixel.com/2012/12/13/double-exposure-a-clever-photo-prank-from-half-a-century-ago/

Εκτός κι αν τραβάτε μια φωτογραφία σε λειτουργία RAW, η οποία ουσιαστικά μεταφέρει τον αισθητήρα του φακού της κάμερας σε ένα πολύ μεγάλο αρχείο χωρίς κανενός είδους ερμηνεία, είναι πιθανό οι ψηφιακές σας φωτογραφίες να μην είναι απολύτως αυθεντικές. Τα συστήματα κάμερας εφαρμόζουν συστηματικά αλγόριθμους «βελτίωσης» όπως η ευκρίνεια εικόνας και η ισορροπία λευκού, από προεπιλογή - και το κάνουν αυτό από την αρχή της ψηφιακής φωτογραφίας σε επίπεδο καταναλωτή.

Οι συγγραφείς της νέας εργασίας υποστηρίζουν ότι ακόμη και αυτοί οι παλαιότεροι τύποι ψηφιακής βελτίωσης φωτογραφιών δεν αντιπροσωπεύουν την «πραγματικότητα», καθώς τέτοιες μέθοδοι έχουν σχεδιαστεί για να κάνουν τις φωτογραφίες πιο ευχάριστες, όχι πιο «πραγματικές».

Η μελέτη προτείνει ότι ο νόμος της ΕΕ για την τεχνητή νοημοσύνη, ακόμη και με μεταγενέστερες τροποποιήσεις όπως π.χ αιτιολογικές σκέψεις 123–27, τοποθετεί όλο το φωτογραφικό αποτέλεσμα σε ένα αποδεικτικό πλαίσιο ακατάλληλο για το πλαίσιο στο οποίο παράγονται οι φωτογραφίες αυτές τις μέρες, σε αντίθεση με την (ονομαστικά αντικειμενική) φύση του πλάνα από κάμερα ασφαλείας ή της εγκληματολογικής φωτογραφίας. Οι περισσότερες εικόνες που αντιμετωπίζονται από τον νόμο AI είναι πιο πιθανό να προέρχονται από περιβάλλοντα όπου οι κατασκευαστές και οι διαδικτυακές πλατφόρμες προωθήσει ενεργά δημιουργική ερμηνεία φωτογραφιών, συμπεριλαμβανομένης της χρήσης AI.

Οι ερευνητές υποστηρίζουν ότι οι φωτογραφίες «δεν ήταν ποτέ μια αντικειμενική απεικόνιση της πραγματικότητας». Παράγοντες όπως η θέση της κάμερας, το επιλεγμένο βάθος πεδίου και οι επιλογές φωτισμού, συμβάλλουν στο να γίνει μια φωτογραφία βαθιά υποκειμενική.

Η εργασία παρατηρεί ότι οι συνήθεις εργασίες «καθαρισμού» - όπως η αφαίρεση σκόνης αισθητήρα ή ανεπιθύμητων γραμμών ρεύματος από μια κατά τα άλλα καλά συντιθέμενη σκηνή - ήταν μόνο ημι- αυτοματοποιημένο πριν από την άνοδο της τεχνητής νοημοσύνης: οι χρήστες έπρεπε να επιλέξουν με μη αυτόματο τρόπο μια περιοχή ή να ξεκινήσουν μια διαδικασία για να επιτύχουν το επιθυμητό αποτέλεσμα.

Σήμερα, αυτές οι λειτουργίες ενεργοποιούνται συχνά από μηνύματα κειμένου ενός χρήστη, κυρίως σε εργαλεία όπως το Photoshop. Σε επίπεδο καταναλωτή, τέτοιες λειτουργίες αυτοματοποιούνται ολοένα και περισσότερο. χωρίς η συμβολή του χρήστη – ένα αποτέλεσμα που προφανώς θεωρείται από τους κατασκευαστές και τις πλατφόρμες ως «προφανώς επιθυμητό».

Η Αραιωμένη Σημασία του «Deepfake»

Μια κεντρική πρόκληση για τη νομοθεσία σχετικά με τις εικόνες που έχουν τροποποιηθεί και δημιουργηθεί από την τεχνητή νοημοσύνη είναι η ασάφεια του όρου «deepfake», του οποίου η σημασία έχει διευρυνθεί σημαντικά τα τελευταία δύο χρόνια.

Αρχικά οι όροι ίσχυαν μόνο για την έξοδο βίντεο από συστήματα που βασίζονται σε αυτόματο κωδικοποιητή όπως το DeepFaceLab και το FaceSwap, και τα δύο προέρχονται από ανώνυμο κώδικα που δημοσιεύτηκε στο Reddit στα τέλη του 2017.

Από το 2022, η έλευση του Μοντέλα Λανθάνουσας Διάχυσης (LDM) όπως Σταθερή Διάχυση και Ροή, καθώς και συστήματα μετατροπής κειμένου σε βίντεο όπως π.χ Sora, θα επέτρεπε επίσης την εναλλαγή ταυτότητας και την προσαρμογή, με βελτιωμένη ανάλυση, ευελιξία και πιστότητα. Τώρα ήταν δυνατή η δημιουργία μοντέλων με βάση τη διάχυση που θα μπορούσαν να απεικονίσουν διασημότητες και πολιτικούς. Δεδομένου ότι ο όρος «deepfake» ήταν ήδη ένας θησαυρός που συγκεντρώνει πρωτοσέλιδα για τους παραγωγούς μέσων ενημέρωσης, επεκτάθηκε ώστε να καλύπτει και αυτά τα συστήματα.

Αργότερα, τόσο στα μέσα ενημέρωσης όσο και στην ερευνητική βιβλιογραφία, ο όρος περιλαμβάνεται επίσης πλαστοπροσωπία βάσει κειμένουΣε αυτό το σημείο, η αρχική έννοια του «deepfake» είχε σχεδόν χαθεί, ενώ η εκτεταμένη σημασία του εξελισσόταν συνεχώς και εξασθενούσε ολοένα και περισσότερο.

Αλλά επειδή η λέξη ήταν τόσο εμπρηστική και γαλβανιστική, και ήταν μέχρι τώρα μια ισχυρή πολιτική και μιντιακή λίθος, αποδείχτηκε αδύνατο να τα παρατήσουμε. Προσέλκυσε τους αναγνώστες σε ιστοσελίδες, χρηματοδότηση σε ερευνητές και προσοχή στους πολιτικούς. Αυτή η λεξιλογική ασάφεια είναι το κύριο επίκεντρο της νέας έρευνας.

Όπως παρατηρούν οι συγγραφείς, το άρθρο 3(60) του νόμου της ΕΕ για την τεχνητή νοημοσύνη περιγράφει τέσσερις προϋποθέσεις που ορίζουν ένα «deepfake».

1: Αληθινή Σελήνη

Πρώτον, το περιεχόμενο πρέπει να είναι δημιουργούνται ή χειραγωγούνται, δηλαδή, είτε δημιουργούνται από την αρχή χρησιμοποιώντας Τεχνητή Νοημοσύνη (δημιουργία) είτε τροποποιούνται από υπάρχοντα δεδομένα (χειραγώγηση). Η εργασία υπογραμμίζει τη δυσκολία στη διάκριση μεταξύ «αποδεκτών» αποτελεσμάτων επεξεργασίας εικόνας και χειριστικών deepfakes, δεδομένου ότι οι ψηφιακές φωτογραφίες, σε κάθε περίπτωση, δεν αποτελούν ποτέ αληθινές αναπαραστάσεις της πραγματικότητας.

Η δημοσίευση υποστηρίζει ότι ένα φεγγάρι που δημιουργείται από τη Samsung είναι αναμφισβήτητα αυθεντικό, καθώς το φεγγάρι είναι απίθανο να αλλάξει εμφάνιση και επειδή το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη, εκπαιδευμένο σε πραγματικές σεληνιακές εικόνες, είναι επομένως πιθανό να είναι ακριβές.

Ωστόσο, οι συγγραφείς δηλώνουν επίσης ότι, δεδομένου ότι το σύστημα της Samsung έχει αποδειχθεί ότι δημιουργεί μια «βελτιωμένη» εικόνα της σελήνης σε περίπτωση που η εικόνα πηγής δεν ήταν η ίδια η σελήνη, αυτό θα θεωρούνταν «deepfake».

Δεν θα ήταν πρακτικό να συντάξουμε μια ολοκληρωμένη λίστα διαφορετικών περιπτώσεων χρήσης γύρω από αυτό το είδος ad hoc λειτουργικότητα. Επομένως, το βάρος του ορισμού φαίνεται να περνά, για άλλη μια φορά, στα δικαστήρια.

2: TextFakes

Δεύτερον, το περιεχόμενο πρέπει να είναι με τη μορφή εικόνας, ήχου ή βίντεο. Το περιεχόμενο κειμένου, αν και υπόκειται σε άλλες υποχρεώσεις διαφάνειας, δεν θεωρείται βαθύ ψεύτικο σύμφωνα με τον νόμο AI. Αυτό δεν καλύπτεται με καμία λεπτομέρεια στη νέα μελέτη, αν και μπορεί να έχει σημαντική επίδραση στην αποτελεσματικότητα του οπτικές deepfakes (βλ. παρακάτω).

3: Προβλήματα του πραγματικού κόσμου

Τρίτον, το περιεχόμενο πρέπει μοιάζουν με υπάρχοντα πρόσωπα, αντικείμενα, μέρη, οντότητες ή γεγονότα. Αυτή η συνθήκη δημιουργεί μια σύνδεση με τον πραγματικό κόσμο, πράγμα που σημαίνει ότι οι καθαρά κατασκευασμένες εικόνες, ακόμη και αν είναι φωτορεαλιστικές, δεν θα μπορούσαν να χαρακτηριστούν ως deepfake. Αιτιολογική σκέψη 134 του νόμου της ΕΕ για την τεχνητή νοημοσύνη δίνει έμφαση στην πτυχή της «ομοιότητας» προσθέτοντας τη λέξη «αισθητά» (μια φαινομενική αναβολή σε μεταγενέστερες δικαστικές αποφάσεις).

Οι συγγραφείς, επικαλούμενοι προηγούμενη δουλειά, εξετάστε εάν μια ανάγκη προσώπου που δημιουργείται από AI ανήκει σε ένα πραγματικό πρόσωπο ή αν χρειάζεται μόνο να είναι επαρκώς παρόμοιες σε πραγματικό πρόσωπο, προκειμένου να ικανοποιηθεί αυτός ο ορισμός.

Για παράδειγμα, πώς μπορεί κανείς να προσδιορίσει εάν μια ακολουθία φωτορεαλιστικών εικόνων που απεικονίζει τον πολιτικό Ντόναλντ Τραμπ έχει την πρόθεση πλαστοπροσωπίας, εάν οι εικόνες (ή τα συνημμένα κείμενα) δεν τον αναφέρουν συγκεκριμένα; Αναγνώριση προσώπου; Έρευνες χρηστών; Ο ορισμός της «κοινής λογικής» από έναν δικαστή;

Επιστρέφοντας στο ζήτημα των «TextFakes» (βλ. παραπάνω), οι λέξεις συχνά αποτελούν σημαντικό μέρος της πράξης ενός οπτικές deepfake. Για παράδειγμα, είναι δυνατό να τραβήξετε μια (αμετάβλητη) εικόνα ή βίντεο του 'άτομο α', να ας πούμε, σε μια λεζάντα ή μια ανάρτηση στα μέσα κοινωνικής δικτύωσης, ότι η εικόνα είναι τουάτομο β' (αν υποθέσουμε ότι τα δύο άτομα έχουν ομοιότητα).

Σε τέτοια περίπτωση, δεν χρειάζεται AI, και το αποτέλεσμα μπορεί να είναι εντυπωσιακά αποτελεσματικό - αλλά μήπως μια τέτοια προσέγγιση χαμηλής τεχνολογίας συνιστά επίσης «deepfake»;

4: Ρετουσάρισμα, αναδιαμόρφωση

Τέλος, το περιεχόμενο πρέπει φαίνονται αυθεντικοί ή αληθινοί σε ένα άτομο. Αυτή η συνθήκη τονίζει το αντίληψη των ανθρώπων θεατών. Περιεχόμενο που αναγνωρίζεται μόνο ότι αντιπροσωπεύει ένα πραγματικό πρόσωπο ή αντικείμενο από έναν αλγόριθμο δεν να θεωρηθεί deepfake.

Από όλες τις προϋποθέσεις στο 3(60), αυτή η πιο προφανώς μετατίθεται στη μεταγενέστερη κρίση ενός δικαστηρίου, καθώς δεν επιτρέπει καμία ερμηνεία με τεχνικά ή μηχανικά μέσα.

Υπάρχουν σαφώς ορισμένες εγγενείς δυσκολίες στην επίτευξη συναίνεσης σχετικά με μια τέτοια υποκειμενική ρήτρα. Οι συγγραφείς παρατηρούν, για παράδειγμα, ότι διαφορετικοί άνθρωποι και διαφορετικοί τύποι ανθρώπων (όπως παιδιά και ενήλικες) μπορεί να πιστεύουν διαφορετικά σε ένα συγκεκριμένο deepfake.

Οι συγγραφείς σημειώνουν περαιτέρω ότι οι προηγμένες δυνατότητες τεχνητής νοημοσύνης εργαλείων όπως το Photoshop αμφισβητούν τους παραδοσιακούς ορισμούς του «deepfake». Ενώ αυτά τα συστήματα μπορεί να περιλαμβάνουν βασικές διασφαλίσεις έναντι αμφιλεγόμενου ή απαγορευμένου περιεχομένου, διευρύνουν δραματικά την έννοια του «ρετουσαρίσματος». Οι χρήστες μπορούν πλέον να προσθέτουν ή να αφαιρούν αντικείμενα με έναν εξαιρετικά πειστικό, φωτορεαλιστικό τρόπο, επιτυγχάνοντας ένα επαγγελματικό επίπεδο αυθεντικότητας που επαναπροσδιορίζει τα όρια της χειραγώγησης εικόνας.

Οι συγγραφείς αναφέρουν:

«Υποστηρίζουμε ότι ο τρέχων ορισμός των deep fakes στον νόμο AI και οι αντίστοιχες υποχρεώσεις δεν προσδιορίζονται επαρκώς για την αντιμετώπιση των προκλήσεων που δημιουργούνται από τα deep fakes. Αναλύοντας τον κύκλο ζωής μιας ψηφιακής φωτογραφίας από τον αισθητήρα της κάμερας στις λειτουργίες ψηφιακής επεξεργασίας, διαπιστώνουμε ότι:

«(1.) Οι βαθιές απομιμήσεις δεν ορίζονται σωστά στον νόμο της ΕΕ για την τεχνητή νοημοσύνη. Ο ορισμός αφήνει πάρα πολλά περιθώρια για το τι είναι ένα deep fake.

«(2.) Δεν είναι σαφές πώς οι λειτουργίες επεξεργασίας, όπως η δυνατότητα "καλύτερης λήψης" της Google μπορούν να θεωρηθούν ως εξαίρεση στις υποχρεώσεις διαφάνειας.

«(3.) Η εξαίρεση για εικόνες που έχουν υποστεί ουσιαστική επεξεργασία εγείρει ερωτήματα σχετικά με το τι συνιστά ουσιαστική επεξεργασία περιεχομένου και κατά πόσον αυτή η επεξεργασία πρέπει να είναι αντιληπτή από ένα φυσικό πρόσωπο.»

Λήψη Εξαίρεσης

Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη περιέχει εξαιρέσεις που, υποστηρίζουν οι συγγραφείς, μπορεί να είναι πολύ επιτρεπτές. Το άρθρο 50 (2), αναφέρουν, προσφέρει εξαίρεση σε περιπτώσεις όπου το μεγαλύτερο μέρος μιας αρχικής εικόνας πηγής δεν έχει αλλοιωθεί. Οι συγγραφείς σημειώνουν:

«Τι μπορεί να θεωρηθεί περιεχόμενο κατά την έννοια του Άρθρου 50(2) σε περιπτώσεις ψηφιακού ήχου, εικόνων και βίντεο; Για παράδειγμα, στην περίπτωση εικόνων, πρέπει να λάβουμε υπόψη τον χώρο των εικονοστοιχείων ή τον ορατό χώρο που γίνεται αντιληπτός από τον άνθρωπο; Οι ουσιαστικοί χειρισμοί στον χώρο των εικονοστοιχείων ενδέχεται να μην αλλάξουν την ανθρώπινη αντίληψη και, από την άλλη πλευρά, μικρές διαταραχές στον χώρο των εικονοστοιχείων μπορούν να αλλάξουν δραματικά την αντίληψη.»

Οι ερευνητές αναφέρουν το παράδειγμα της προσθήκης ενός πιστολιού χειρός στη φωτογραφία ενός ατόμου που σημαδεύει κάποιον. Προσθέτοντας το όπλο, αλλάζει κανείς μόλις το 5% της εικόνας. Ωστόσο, η σημασιολογική σημασία του αλλαγμένου τμήματος είναι αξιοσημείωτη. Επομένως, φαίνεται ότι αυτή η εξαίρεση δεν λαμβάνει υπόψη καμία «κοινή λογική» κατανόηση της επίδρασης που μπορεί να έχει μια μικρή λεπτομέρεια στη συνολική σημασία μιας εικόνας.

Το άρθρο 50(2) επιτρέπει επίσης εξαιρέσεις για μια «λειτουργία υποβοήθησης για τυπική επεξεργασία». Δεδομένου ότι ο νόμος δεν ορίζει τι σημαίνει «τυπική επεξεργασία», ακόμη και λειτουργίες μετεπεξεργασίας τόσο ακραίες όσο το Best Take της Google φαίνεται να προστατεύονται από αυτήν την εξαίρεση, παρατηρούν οι συγγραφείς.

Συμπέρασμα

Η δηλωμένη πρόθεση της νέας εργασίας είναι να ενθαρρύνει τη διεπιστημονική μελέτη γύρω από τη ρύθμιση των deepfakes και να λειτουργήσει ως αφετηρία για νέους διαλόγους μεταξύ επιστημόνων υπολογιστών και νομικών.

Ωστόσο, η ίδια η εργασία υποκύπτει στην ταυτολογία σε πολλά σημεία: χρησιμοποιεί συχνά τον όρο «deepfake» σαν να ήταν η σημασία του αυτονόητη, ενώ παράλληλα επικρίνει τον νόμο της ΕΕ για την τεχνητή νοημοσύνη επειδή δεν ορίζει τι στην πραγματικότητα συνιστά deepfake.

 

Πρώτη δημοσίευση Δευτέρα, 16 Δεκεμβρίου 2024

Συγγραφέας στη μηχανική μάθηση, ειδικός τομέα στη σύνθεση ανθρώπινης εικόνας. Πρώην επικεφαλής ερευνητικού περιεχομένου στο Metaphysic.ai.
Προσωπικός ιστότοπος: martinanderson.ai
Επαφή: [προστασία μέσω email]
Twitter: @manders_ai