Συνεντεύξεις
Δρ Mathilde Pavis, Διευθύντρια Νομικών, OpenOrigins – Σειρά Συνεντεύξεων

Δρ Mathilde Pavis, Διευθύντρια Νομικών στην OpenOrigins, είναι एक ηγέτης εμπειρογνώμων στην κανονιστική ρύθμιση του AI και τη διακυβέρνηση των ψηφιακών μέσων, με εξειδίκευση στα deepfakes, συνθετικά μέσα και απόδειξη προελεύσεων. Συμβουλεύει εταιρείες, κυβερνήσεις και σωματεία για τη συμμόρφωση, άδειες και κίνδυνο στα γεννητικά AI και έχει συνεργαστεί με τη Microsoft και την ElevenLabs για την πολιτική και την στρατηγική του AI. Έχει επίσης συμβουλεύσει την UNESCO για το AI και τη πνευματική ιδιοκτησία και συνεισφέρει τακτικά εμπειρογνώμονες ενδείξεις στους Βρετανούς νομοθέτες.
OpenOrigins αναπτύσσει τεχνολογία για την καταπολέμηση των ψευδών πληροφοριών και των deepfakes, δημιουργώντας επαλήθευσιμες, ακατάστροφες εγγραφές ψηφιακού περιεχομένου. Η πλατφόρμα της επικεντρώνεται στην καθιέρωση σαφούς προελεύσεων, επιτρέποντας στα μέσα ενημέρωσης, τους δημιουργούς και τις πλατφόρμες να αποδείξουν πότε και πώς δημιουργήθηκε, επεξεργάστηκε και διανεμήθηκε το περιεχόμενο – μια ολοένα και πιο κρίσιμη ικανότητα, καθώς τα συνθετικά μέσα γίνονται πιο προηγμένα και πιο δύσκολα να ανιχνευθούν.
Έχετε συμβουλεύσει κυβερνήσεις, παγκόσμιες θεσμούς όπως η UNESCO και εταιρείες όπως η Microsoft και η ElevenLabs για την κανονιστική ρύθμιση του AI. Τι σας οδήγησε να επικεντρωθείτε συγκεκριμένα στα deepfakes, ψηφιακά αντίγραφα και συνθετικά μέσα, και πώς διαμορφώθηκε αυτό το ταξίδι για να ιδρύσετε την Replique;
Η δουλειά μου στα deepfakes δεν ξεκίνησε με την τεχνολογία – ξεκίνησε με ένα πολύ παλαιότερο νομικό πρόβλημα. Όταν άρχισα να ερευνώ την πνευματική ιδιοκτησία για το διδακτορικό μου το 2013, με εντύπωσε πόσο λιγότερη προστασία λαμβάνουν οι ερμηνευτές σε σύγκριση με τους συγγραφείς, τους συνθέτες ή τους σκηνοθέτες. Στην πράξη, αυτό σημαίνει ότι τα λόγια σας ή η μουσική σας τελικά προστατεύονται καλύτερα από το νόμο από την φωνή σας, το πρόσωπό σας και το σώμα σας. Αυτή η ανισορροπία φάνηκε περίεργη και με οδήγησε να θέσω ένα βαθύτερο ερώτημα: πώς αξιολογούμε πολιτιστικά και νομικά το έργο κάποιου που συνεισφέρει με το πρόσωπό του, τη φωνή του και το σώμα του στην οθόνη;
Αυτό το ερώτημα με οδήγησε στα δικαιώματα των ερμηνευτών και στα δεδομένα. Την εποχή εκείνη, θεωρούνταν một στενό πεδίο με μικρή εμπορική σημασία. Μου συμβουλεύτηκε να μετακινηθώ σε πιο “κερδοφόρα” πεδία όπως τα διπλώματα ευρεσιτεχνίας ή το παραδοσιακό δικαίωμα πνευματικής ιδιοκτησίας. Η υπόθεση ήταν ότι τα ζητήματα που αφορούν την ομοιότητα ή τη φωνή ενός ατόμου διαχειρίζονταν σε μεγάλο βαθμό άτυπα – μέσω βιομηχανικών προτύπων ή “συμφωνιών джεντλμέν” στο Χόλιγουντ. Αλλά για μένα, αυτή η έλλειψη формальной προστασίας σήμανε ένα κενό, όχι ένα τέλους για την έρευνά μου, οπότε συνέχισα;
Τι έχει αλλάξει είναι ότι σήμερα, σχεδόν όλοι είναι ερμηνευτές. Οι ζωές μας μεσολαβούνται από κάμερες – στα τηλέφωνα, τους υπολογιστές, τις βιντεοκλήσεις και τις κοινωνικές πλατφόρμες. Ανεξάρτητα από το αν είναι για δουλειά ή προσωπική χρήση, οι άνθρωποι καταγράφουν και μοιράζονται συνεχώς εκδοχές του εαυτού τους. Τα νομικά ερωτήματα που Applies κυρίως σε ηθοποιούς ή μουσικούς τώρα ισχύουν για οποιονδήποτε έχει ένα smartphone.
Τα deepfakes δεν δημιούργησαν αυτά τα ζητήματα – τα εξέθεσαν και τα επιτάχυναν. Η έρευνα που έκανα από το 2013 και μετά έγινε ξαφνικά επείγουσα. Γύρω στο 2017 και το 2018, οι εξελίξεις στα νευρωνικά δίκτυα – ιδιαίτερα από μέρη όπως το MIT και το UC Berkeley – άρχισαν να αποδεικνύουν πόσο πειστικά μπορεί να χειριστεί ψηφιακά το πρόσωπο, η φωνή και το σώμα ενός ατόμου. Μέσα σε ένα χρόνο, αυτή η ικανότητα έγινε ευρέως γνωστή ως “deepfakes” και αρχικά κέρδισε έλξη με深 образом, ιδιαίτερα μέσω μη συναισθηματικών σεξουαλικού περιεχομένου που στοχεύει γυναίκες και παιδιά.
Μόνο αργότερα εμφανίστηκαν οι εμπορικές επιπτώσεις, καθώς οι δημιουργικές βιομηχανίες άρχισαν να υιοθετούν συνθετικά μέσα. Τότε τα συμβατικά και οικονομικά ερωτήματα που είχα δουλέψει ήρθαν στο προσκήνιο. Σχεδόν από τη μια μέρα στην άλλη, αυτό που θεωρούνταν σε μεγάλο βαθμό θεωρητικό ή δογματικό πεδίο του δικαίου έγινε ένα εξαιρετικά πρακτικό, εμπορικά σημαντικό και κοινωνικά επείγον πεδίο.
Στο κέντρο, η νομική πρόκληση δεν έχει αλλάξει: οι άνθρωποι θέλουν να μοιράζονται аспектς του εαυτού τους, αλλά να διατηρούν σημαντικό έλεγχο. Τα υπάρχοντα πλαίσια δυσκολεύονται με αυτήν την νюανς. Τείνουν να αντιμετωπίζουν τα άτομα είτε ως εντελώς ιδιωτικά είτε ως εντελώς δημόσια – είτε προστατευμένα είτε δίκαια παιχνίδι. Αλλά οι περισσότεροι άνθρωποι υπάρχουν κάπου στο meio.
Αυτό το στρες είναι τώρα κεντρικό όχι μόνο για τους επαγγελματίες ερμηνευτές, αλλά και για οποιονδήποτε συμμετέχει στη ψηφιακή ζωή.
Γίνατε γνωστή ως κάποιος που έρευνα και δούλεψε σε αυτό το χώρο, ο οποίος με οδήγησε να συνεργαστώ με κυβερνήσεις που ενδιαφέρονται για την προστασία των ανθρώπων από τα deepfakes και εταιρείες που θέλουν να κάνουν τα ψηφιακά κλώνους ασφαλείς για χρήση, όπως η ElevenLabs. Στην Replique, φέρνω όλα όσα έχω μάθει σε ανθρώπους και εταιρείες που θέλουν να χρησιμοποιήσουν ψηφιακά κλώνους ή ψηφιακά αντίγραφα τεχνολογίας υπεύθυνα και ασφαλώς. Έχω ουσιαστικά μετατρέψει την “μπλε ουρανό” έρευνά μου σε μια συμβουλευτική επιχείρηση που φέρνει εξειδικευμένες νομικές συμβουλές στις δημιουργικές βιομηχανίες.
Ως Διευθύντρια Νομικών στην OpenOrigins, μια εταιρεία που επικεντρώνεται στην καθιέρωση ενός αμετάβλητου αρχείου προελεύσεων περιεχομένου για την καταπολέμηση των deepfakes, πώς βλέπετε τις προελεύσεων-βασισμένες συστήματα να ανταγωνίζονται ή να αντικαθιστούν τις παραδοσιακές προσεγγίσεις ανίχνευσης deepfakes;
Η σύγκριση των εργαλείων ανίχνευσης deepfakes μπορεί να γίνει γρήγορα ένα παιχνίδι μήλων και πορτοκαλιών, επειδή η αποτελεσματικότητά τους εξαρτάται από το контекст και τον σκοπό. Από μια πολιτική άποψη, αυτό που χρειαζόμαστε είναι μια σειρά από συμπληρωματικά εργαλεία – δεν υπάρχει ένα seul “καλύτερο” λύση, και η OpenOrigins είναι ένα μέρος του ευρύτερου οικοσυστήματος. Όπου η τεχνολογία της OpenOrigins ξεχωρίζει ως λύση ανίχνευσης deepfakes είναι σε καταστάσεις όπου ένας δημιουργός περιεχομένου ή μια οργάνωση πληροφοριών χρειάζεται να αποδείξει την αυθεντικότητα του περιεχομένου που μοιράζεται με συνεργάτες, κοινό ή το κοινό.
Παρέχοντας επαλήθευσιμες προελεύσεις και “αποδείξεις” στο σημείο δημιουργίας, προσφέρει μια ισχυρή μορφή πρόληψης, αποδεικνύοντας ότι το περιεχόμενο δεν είναι ένα deepfake. Ωστόσο, αυτή η προσέγγιση είναι λιγότερο χρήσιμη για τους καθημερινούς χρήστες του διαδικτύου που θέλουν να αξιολογήσουν γρήγορα το περιεχόμενο που συναντούν online. Σε αυτές τις περιπτώσεις, η ανίχνευση βασίζεται περισσότερο σε πιθανολογικές και μεθόδους ανάλυσης περιεχομένου παρά σε προελεύσεων-βασισμένες επαλήθευσεις. Χρειαζόμαστε διαφορετικά εργαλεία για διαφορετικές ανάγκες, και πρέπει να αποδεχθούμε ότι δεν υπάρχει ασημένιο βέλος ενάντια στα deepfakes.
Από νομικής άποψης, ποιο είναι το μεγαλύτερο κενό στη διαχείριση των δικαιωμάτων και της ιδιοκτησίας σε περιεχόμενο που παράγεται ή αναπαράγεται από το AI;
Οοφ, πόσο καιρό έχετε; Οι απαντήσεις εξαρτώνται από το τι εννοούμε με AI-παραγόμενο ή AI-αναπαραχθέν περιεχόμενο. Τα ζητήματα ποικίλλουν αν κοιτάξουμε μια AI-παραγόμενο εικόνα ενός σπιτιού ή μιας γάτας. Ή ψηφιακή αναπαράσταση του προσώπου ή της φωνής ενός ατόμου. Ας μείνουμε στο θέμα των deepfakes και ψηφιακών αντιγράφων και απαντήσουμε στο ερώτημά σας στο контекστ του “ψηφιακού κλώνου”.
Σχετικά με τη συγκατάθεση, το κεντρικό ζήτημα είναι ότι οι περισσότερες συμβάσεις – είτε συμβάσεις εργασίας είτε όροι πλατφόρμας – περιέχουν ευρείες, ασαφείς ρήτρες που παρέχουν εκτεταμένα δικαιώματα над το περιεχόμενο του χρήστη. Αυτά μπορούν να ερμηνευτούν ως一种 μορφή “πίσω πόρτας συγκατάθεσης” όπου η συμφωνία με τους όρους μπορεί να θεωρηθεί ως συγκατάθεση για χρήσεις όπως ο κλών, ακόμη και αν οι περισσότεροι άνθρωποι θα αμφισβητούσαν αυτήν την ερμηνεία. Αυτό δημιουργεί ένα σημαντικό κενό μεταξύ νομικής ερμηνείας και προσδοκίας του χρήστη, ένα που目前 ωφελεί τις εταιρείες ενώ η ρύθμιση μένει πίσω.
Σχετικά με την ιδιοκτησία, δεν υπάρχει σαφής νομική απάντηση σε ποιος ιδιοκτήτης ενός ψηφιακού κλώνου, επειδή τα υπάρχοντα πλαίσια όπως η προστασία δεδομένων, το δικαίωμα πνευματικής ιδιοκτησίας και τα δικαιώματα προσωπικότητας δεν σχεδιάστηκαν για αυτήν την τεχνολογία. Σήμερα, οι περισσότεροι άνθρωποι σαρώνονται και κλωνοποιούνται στη δουλειά, στην αίτηση και με τη χρηματοδότηση ενός εργοδότη ή ενός πελάτη. Και αυτές οι οντότητες συνήθως περιμένουν ένα υψηλό επίπεδο ελέγχου πάνω σε αυτό το περιουσιακό στοιχείο, το οποίο είναι κατανοητό αλλά συχνά προβληματικό επειδή αυτό το περιουσιακό στοιχείο είναι μια ψηφιακή μίμηση του προσώπου σας ή της φωνής σας και μπορεί να σας κάνει να πείτε πράγματα που δεν έχετε ποτέ πει ή να κάνετε πράγματα που δεν έχετε ποτέ κάνει.
Το ερώτημα “ποιος ιδιοκτήτης του κλώνου σας;” είναι πολύ σημαντικό, αλλά ατελείωτο στο δίκαιο σήμερα.
Έχετε δουλέψει στενά με τεχνολογίες κλώνου φωνής. Ποια είναι τα πιο λανθασμένα νομικά рисκ όταν πρόκειται για συνθετικές φωνές, τόσο για τις εταιρείες όσο και για τα άτομα;
Το πιο λανθασμένο ζήτημα στη νομική συμμόρφωση είναι η ισορροπία μεταξύ του εμπορικού ενδιαφέροντος μιας εταιρείας για τη χρηματοδότηση και την εκμετάλλευση ενός ψηφιακού κλώνου και του δικαιώματος του ατόμου για προστασία προσωπικών δεδομένων και ψηφιακής αξιοπρέπειας. Αυτή η τάση βρίσκεται σε πολλά νομικά καθεστώτα (πρωτίστως πνευματική ιδιοκτησία, προστασία δεδομένων και προστασία προσωπικών δεδομένων) που δεν σχεδιάστηκαν για να λειτουργούν μαζί και ερμηνεύουν τον κλώνο με θεμελιωδώς διαφορετικούς τρόπους. Ως αποτέλεσμα, η μετάφραση αυτού σε λειτουργικές, φιλικές προς τις επιχειρήσεις πρακτικές είναι σύνθετη και συχνά ασαφής. Οι εταιρείες, επομένως, είτε παραβλέπουν κρίσιμους κινδύνους είτε αναλαμβάνουν σημαντικούς κόστους για να πλοηγηθούν σωστά. Αυτό δημιουργεί μια παράλογη έκβαση όπου η υπεύθυνη συμμόρφωση γίνεται ο πιο δύσκολος, πιο ακριβός δρόμος, αντί για το προεπιλεγμένο.
Πώς πρέπει οι επιχειρήσεις να σκέφτονται την αρχιτεκτονική συγκατάθεσης στα συστήματα AI, ιδιαίτερα όταν αντιμετωπίζουν ομοιότητα, ταυτότητα και δεδομένα εκπαίδευσης;
Οι εταιρείες πρέπει να σχεδιάσουν τα συστήματά τους γύρω από τρεις βασικές ικανότητες. Πρώτον, πρέπει να εξασφαλίσουν ενημερωμένη, περιεκτική συγκατάθεση κατά την εγγραφή. Δεύτερον, πρέπει να κάνουν εύκολη για τους χρήστες να αποσύρουν αυτήν τη συγκατάθεση και να διαγράψουν κάποιο ή όλα τα δεδομένα τους, κάτι που είναι τεχνικά δύσκολο και συχνά παραβλέπεται, αλλά απαραίτητο για τη συμμόρφωση με νόμους όπως το GDPR του Ηνωμένου Βασιλείου και της ΕΕ και παρόμοιους κανονισμούς στις ΗΠΑ. Η διατήρηση της συγκατάθεσης με την πάροδο του χρόνου σημαίνει την κατασκευή συστημάτων όπου η απόσυρση είναι ομαλή και ευθυγραμμισμένη με το επιχειρηματικό μοντέλο.
Η συγκατάθεση πρέπει να είναι γρανιτσμένη. Και τρίτον, οι χρήστες πρέπει να μπορούν να διαχειρίζονται τις άδειες στο επίπεδο των ατομικών αρχείων, να ενημερώνουν τα δεδομένα της ομοιότητας τους και να κατανοούν πώς χρησιμοποιούνται. Αυτό απαιτεί διαφάνεια και έλεγχο – εργαλεία που επιτρέπουν στους χρήστες να παρακολουθούν, αναθεωρούν και μεσολαβούν πώς αναπτύσσονται οι ψηφιακοί κλώνοι τους. Αυτό το επίπεδο ευελιξίας είναι ακόμη σπάνιο, αλλά είναι όπου βρίσκεται η ανταγωνιστική πλεονεκτική θέση.
Σε αυτήν σας την εμπειρία συμβουλεύοντας τόσο startups όσο και κυβερνήσεις, πού είναι το μεγαλύτερο δισυνδέσιμο μεταξύ του τρόπου με τον οποίο το AI κατασκευάζεται και του τρόπου με τον οποίο ρυθμίζεται;
Το δισυνδέσιμο μεταξύ του τρόπου με τον οποίο το AI κατασκευάζεται και του τρόπου με τον οποίο ρυθμίζεται έρχεται xuống σε βασικά διαφορετικά αποστολές. Οι κυβερνήσεις ρυθμίζουν στο δημόσιο συμφέρον, ενώ οι εταιρείες AI (συχνά με επένδυση κεφαλαίου) οδηγούνται κυρίως από την ανάπτυξη, τα έσοδα και το κέρδος. Αυτά τα προτερήματα δεν συμφωνούν πάντα, αλλά συχνά τραβούν σε διαφορετικές κατευθύνσεις, με τη ρύθμιση να θεωρείται ως ένα περιορισμό αντί για μια υποστήριξη.
Αυτό δημιουργεί μια δομική τάση: οι ρυθμιστές και οι καινοτόμοι λειτουργούν με διαφορετικές ενθαρρύνσεις, αξίες και ακόμη και γλώσσες. Αυτό κάνει τη συναρμολόγηση δύσκολο στην πράξη, ακόμη και αν δεν είναι αδύνατο. Αρχίζουμε να βλέπουμε μια νέα κυμαία εταιρειών που ευθυγραμμίζονται πιο στενά με τους στόχους του δημόσιου συμφέροντος, αλλά παραμένουν η εξαίρεση παρά η κανόνας – ιδιαίτερα μεταξύ εκείνων που επιτυγχάνουν επιτυχημένα.
Η OpenOrigins επικεντρώνεται στην επαλήθευση του περιεχομένου στο σημείο δημιουργίας χρησιμοποιώντας κρυπτογραφική προέλευση. Πόσο κρίσιμο είναι αυτή η προσεγγισή “πρώτα η προέλευση” σε σύγκριση με τα φραγμούς μετά τη διανομή;
Αυτό συνδέεται με την απάντησή μου παραπάνω. Η αυθεντικοποίηση του περιεχομένου στη δημιουργία, “πάνω ρεύμα” είναι πολύ πιο αποτελεσματική από το να προσπαθήσετε να το επαλήθευσετε στο σημείο διανομής ή ακόμη και κατανάλωσης, δηλαδή “κάτω ρεύμα”. Η αυθεντικοποίηση του περιεχομένου στη δημιουργία είναι σαν να ιχνηλατείτε το φαγητό από τη στιγμή που καλλιεργείται στη φάρμα, αντί να προσπαθήσετε να το κατανοήσετε από το τι είναι στο πιάτο σας. Αν ξέρετε από πού προέρχεται το κοτόπουλο, πώς χειρίζεται και πώς μεταφέρεται через την αλυσίδα εφοδιασμού, μπορείτε να εμπιστευτείτε τι τρώτε. Αν αντίθετα προσπαθείτε να συναγάγετε όλα αυτά απλά κοιτάζοντας το τελικό πιάτο, βασίζεστε σε εικασίες. Είναι το ίδιο με το να διακρίνετε μεταξύ ανθρώπινου-δημιουργημένου και AI-παραγόμενου περιεχομένου στο διαδίκτυο: η προέλευση στην πηγή σας δίνει επαλήθευση, ενώ η ανίχνευση κάτω ρεύματος είναι εγγενώς πιο αβέβαιη και αντιδραστική.
Τι ρόλο βλέπετε τις προδιαγραφές όπως το C2PA να παίζουν στο μέλλον των μέσων, και είναι επαρκείς από μόνες τους για να αποκαταστήσουν την εμπιστοσύνη στο διαδίκτυο;
Το C2PA είναι μια ευπρόσδεκτη πρωτοβουλία, και σε πολλά μέρη υποστηρίζει την ίδια κίνηση για την αυθεντικότητα του περιεχομένου όπως η OpenOrigins. Είναι ένα σημαντικό μέρος του οικοσυστήματος ασφαλείας και αυθεντικότητας του περιεχομένου. Όπως κάθε εργαλείο κυβερνοασφάλειας, δεν υπάρχει ασημένιο βέλος.
Για τους δημιουργούς και τα ταλέντα σε βιομηχανίες όπως ο κινηματογράφος, η μουσική και τα βιντεοπαιχνίδια, ποια πρακτικά βήματα πρέπει να λάβουν σήμερα για να προστατεύσουν τον εαυτό τους από μη εξουσιοδοτημένες ψηφιακές αναπαραγωγές;
Οι καλλιτέχνες σήμερα αντιμετωπίζουν δύο διαφορετικά ρίσκα: την αναπαραγωγή του έργου τους (όπως μουσική, εικόνες ή γραπτό κείμενο) και την αναπαραγωγή της ομοιότητας τους, συμπεριλαμβανομένου του προσώπου, της φωνής και του σώματος. Με ελάχιστη εισαγωγή, τα συστήματα AI μπορούν τώρα να αναπαράγουν και τα δύο με υψηλό βαθμό πιστότητας. Σε πρακτικούς όρους, η προστασία αρχίζει με την επίτευξη σκόπιμης συγκατάθεσης κατά την εγγραφή. Δεύτερον, πρέπει να κάνουν εύκολη για τους χρήστες να αποσύρουν αυτήν τη συγκατάθεση και να διαγράψουν κάποιο ή όλα τα δεδομένα τους, κάτι που είναι τεχνικά δύσκολο και συχνά παραβλέπεται, αλλά απαραίτητο για τη συμμόρφωση με νόμους όπως το GDPR του Ηνωμένου Βασιλείου και της ΕΕ και παρόμοιους κανονισμούς στις ΗΠΑ.
Η διατήρηση της συγκατάθεσης με την πάροδο του χρόνου σημαίνει την κατασκευή συστημάτων όπου η απόσυρση είναι ομαλή και ευθυγραμμισμένη με το επιχειρηματικό μοντέλο. Η συγκατάθεση πρέπει να είναι γρανιτσμένη. Και τρίτον, οι χρήστες πρέπει να μπορούν να διαχειρίζονται τις άδειες στο επίπεδο των ατομικών αρχείων, να ενημερώνουν τα δεδομένα της ομοιότητας τους και να κατανοούν πώς χρησιμοποιούνται. Αυτό απαιτεί διαφάνεια και έλεγχο – εργαλεία που επιτρέπουν στους χρήστες να παρακολουθούν, αναθεωρούν και μεσολαβούν πώς αναπτύσσονται οι ψηφιακοί κλώνοι τους.
Κοιτάζοντας μπροστά τρία έως πέντε χρόνια, πιστεύετε ότι θα φτάσουμε σε ένα σημείο όπου κάθε κομμάτι ψηφιακού περιεχομένου πρέπει να φέρει επαλήθευση προελεύσεων, ή θα παραμείνει η εμπιστοσύνη κατακερματισμένη σε πλατφόρμες και δικαιοδοσίες;
Θα ήθελα να πω ναι, αλλά πραγματικά, όχι – όχι μέσα σε πέντε χρόνια. Στη τεχνολογία, πέντε χρόνια feels μακρό. Στην αλλαγή της συμπεριφοράς και των συνηθειών των χρηστών, είναι πολύ σύντομο. Οι περισσότεροι καταναλωτές είναι απίθανο να βασίζουν τις αποφάσεις τους με βάση το αν το περιεχόμενο έρχεται με επαλήθευση προελεύσεων. Οι πλατφόρμες τείνουν να ακολουθούν την ζήτηση των χρηστών, βελτιστοποιώντας για την εμπλοκή αντί για την προέλευση.
Αυτό θα μπορούσε να αλλάξει αν η ρύθμιση παρέμβει. Βλέπουμε ήδη τις πρώτες κινήσεις σε μέρη όπως η Καλιφόρνια, όπου οι απαιτήσεις ετικέτας και μετριασμού εμφανίζονται, αλλά η κλιμάκωση αυτής παγκοσμίως θα πάρει χρόνο – πιθανότατα πιο κοντά σε μια δεκαετία παρά πέντε χρόνια.
Ένα άλλο πεδίο αλλαγής είναι το τομέα-ειδικό: βιομηχανίες όπως ο жουρναλισμός, η finance, η ασφάλιση και η υγεία μπορεί να αρχίσουν να απαιτούν προέλευση και αυθεντικότητα επειδή η εμπιστοσύνη είναι θεμελιώδους σημασίας για τις λειτουργίες τους.
Τέλος, οι καταναλωτές μπορεί να μην ενδιαφέρονται για πληροφορίες προελεύσεων στο σύντομο χρονικό διάστημα, αλλά θα ενδιαφερθούν για την ποιότητα του περιεχομένου και την ποιότητα της πληροφορίας. Αν το AI-παραγόμενο περιεχόμενο γίνει πολύ ομοιόμορφο ή “απλό”, το κοινό μπορεί να αρχίσει να αξιολογεί την αυθεντικότητα, την προέλευση και το υψηλό-πιστό, ανθρώπινο-οδηγούμενο υλικό – αλλά αυτή η μετατόπιση παραμένει άγνωστη.
Ευχαριστώ για τις υπέροχες απαντήσεις σας, οι αναγνώστες που θέλουν να μάθουν περισσότερα πρέπει να επισκεφθούν OpenOrigins.












