Connect with us

Εργαλεία Περιηγητή AI Σκοπός Αναγνώριση Deepfakes και Άλλων Ψευδών Μέσων

Τεχνητή νοημοσύνη

Εργαλεία Περιηγητή AI Σκοπός Αναγνώριση Deepfakes και Άλλων Ψευδών Μέσων

mm

Οι προσπάθειες των εταιρειών τεχνολογίας για την αντιμετώπιση της παραπληροφόρησης και του ψευδούς περιεχομένου έχουν ενταθεί τις τελευταίες φορές, καθώς οι τεχνολογίες δημιουργίας ψευδούς περιεχομένου, όπως τα DeepFakes, γίνονται πιο εύχρηστες και πιο εξευγενισμένες. Μια επικείμενη προσπάθεια για τη βοήθεια των ανθρώπων να αναγνωρίσουν και να καταπολεμήσουν τα deepfakes είναι ο RealityDefender, που παράγεται από το AI Foundation, το οποίο έχει δεσμευτεί για την ανάπτυξη ηθικών πρακτόρων και βοηθών AI που οι χρήστες μπορούν να εκπαιδεύσουν για την ολοκλήρωση διαφόρων εργασιών.

Το πιο αξιοσημείωτο έργο του AI Foundation είναι μια πλατφόρμα που επιτρέπει στους ανθρώπους να δημιουργήσουν τους δικούς τους ψηφιακούς προσωπικούς που μοιάζουν με αυτούς και τους αντιπροσωπεύουν σε εικονικές χώρες συναναστροφής. Το AI Foundation εποπτεύεται από το Παγκόσμιο Συμβούλιο AI και ως μέρος του ελέγχου τους πρέπει να προβλέψουν τις πιθανές αρνητικές επιπτώσεις των πλατφορμών AI και στη συνέχεια να προηγηθούν αυτών των προβλημάτων. Όπως αναφέρθηκε από το VentureBeat, Ένα από τα εργαλεία που έχει δημιουργήσει το AI Foundation για την υποστήριξη της ανίχνευσης των deepfakes είναι ο Reality Defender. Ο Reality Defender είναι ένα εργαλείο που μπορεί να χρησιμοποιηθεί στον περιηγητή του χρήστη (ελέγξτε το), το οποίο θα αναλύσει βίντεο, εικόνες και άλλα είδη μέσων για την ανίχνευση σημάτων που το μέσο μπορεί να έχει ψευδευθεί ή να έχει τροποποιηθεί με κάποιο τρόπο. Είναι ελπιδοφόρο ότι το εργαλείο θα βοηθήσει στην αντιμετώπιση της αυξανόμενης ροής των deepfakes στο διαδίκτυο, τα οποία σύμφωνα με κάποιες εκτιμήσεις έχουν διπλασιαστεί κατά τη διάρκεια των τελευταίων έξι μηνών.

Ο Reality Defender λειτουργεί χρησιμοποιώντας μια ποικιλία αλγορίθμων που βασίζονται στο AI, οι οποίοι μπορούν να ανιχνεύσουν ενδείξεις που υποδηλώνουν ότι μια εικόνα ή βίντεο μπορεί να έχει ψευδευθεί. Τα μοντέλα AI ανιχνεύουν λεπτές ενδείξεις απάτης και χειραγώγησης, και τα ψευδώς θετικά μοντέλα που ανιχνεύονται ως λάθος από τους χρήστες του εργαλείου. Τα δεδομένα χρησιμοποιούνται στη συνέχεια για την επαναεκπαίδευση του μοντέλου. Οι εταιρείες AI που δημιουργούν μη αποπλανητικά deepfakes έχουν το περιεχόμενό τους σημασμένο με ένα “ειλικρινές AI” σημάδι ή νερό που επιτρέπει στους ανθρώπους να αναγνωρίσουν εύκολα τα ψευδείς AI-γεννημένα.

Ο Reality Defender είναι μόνο ένα από μια σειρά εργαλείων και μια ολόκληρη πλατφόρμα ευθύνης AI που το AI Foundation προσπαθεί να δημιουργήσει. Το AI Foundation επιδιώκει τη δημιουργία του Guardian AI, μιας πλατφόρμας ευθύνης που βασίζεται στην αρχή ότι τα άτομα πρέπει να έχουν πρόσβαση σε προσωπικούς πράκτορες AI που εργάζονται για αυτούς και που μπορούν να βοηθήσουν στην προστασία τους από την εκμετάλλευση από κακόβουλους ηθοποιούς. Ουσιαστικά, το AI Foundation στοχεύει να επεκτείνει την εμβέλεια του AI στην κοινωνία, φέρνοντάς το σε περισσότερους ανθρώπους, ενώ παράλληλα προστατεύει από τους κινδύνους του AI.

Ο Reality Defender δεν είναι το μόνο νέο προϊόν που οδηγείται από το AI, που στοχεύει στη μείωση της παραπληροφόρησης στις Ηνωμένες Πολιτείες. Ένα παρόμοιο προϊόν ονομάζεται SurfSafe, το οποίο δημιουργήθηκε από δύο φοιτητές του UC Berkeley, Rohan Phadte και Ash Bhat. Σύμφωνα με το The Verge, το SurfSafe λειτουργεί επιτρέποντας στους χρήστες να κάνουν κλικ σε ένα κομμάτι μέσου που είναι περίεργοι και το πρόγραμμα θα εκτελέσει μια αντίστροφη αναζήτηση εικόνας και θα προσπαθήσει να βρει παρόμοιο περιεχόμενο από διάφορες αξιόπιστες πηγές στο διαδίκτυο, σηματοδοτώντας εικόνες που είναι γνωστές ως ψευδείς.

Δεν είναι σαφές πόσο αποτελεσματικές θα είναι αυτές οι λύσεις στο μακροπρόθεσμο. Ο καθηγητής του Dartmouth College και εμπειρογνώμονας δικαστών Hany Farid αναφέρθηκε από το The Verge ότι είναι “εξαιρετικά σκεπτικός” ότι σχέδια συστήματα όπως ο Reality Defender θα λειτουργήσουν με σημαντικό τρόπο. Ο Farid εξήγησε ότι μια από τις βασικές προκλήσεις με την ανίχνευση ψευδούς περιεχομένου είναι ότι τα μέσα δεν είναι καθαρώς ψευδή ή πραγματικά. Ο Farid εξήγησε:

“Υπάρχει ένα συνεχές· ένα απίστευτα σύνθετο εύρος ζητημάτων για αντιμετώπιση. Ορισμένες αλλαγές είναι άσχετες, και ορισμένες αλλάζουν θεμελιωδώς τη φύση μιας εικόνας. Να υποκριθεί ότι μπορούμε να εκπαιδεύσουμε ένα AI να αναγνωρίσει τη διαφορά είναι απίστευτα αφελές. Και να υποκριθεί ότι μπορούμε να αναθέσουμε είναι ακόμη πιο πολύ.”

Επιπλέον, είναι δύσκολο να περιλαμβάνονται στοιχεία crowdsourcing, όπως η σήμανση ψευδών θετικών, επειδή οι άνθρωποι είναι συνήθως πολύ κακόι στην αναγνώριση ψευδών εικόνων. Οι άνθρωποι συχνά κάνουν λάθη και χάνουν λεπτές λεπτομέρειες που σηματοδοτούν μια εικόνα ως ψευδή. Επίσης, δεν είναι σαφές πώς να αντιμετωπιστούν οι κακόβουλοι ηθοποιοί που τρέλαινουν όταν σηματοδοτούν περιεχόμενο.

Φαίνεται πιθανό ότι, για να είναι μέγιστα αποτελεσματικά, τα εργαλεία ανίχνευσης ψευδών θα πρέπει να συνδυαστούν με ψηφιακές προσπάθειες γραμματισμού που διδάσκουν τους ανθρώπους πώς να συλλογισθούν για το περιεχόμενο με το οποίο αλληλεπιδρούν στο διαδίκτυο.

Blogger και προγραμματιστής με ειδικότητες στα Machine Learning και Deep Learning θέματα. Ο Daniel ελπίζει να βοηθήσει τους άλλους να χρησιμοποιήσουν τη δύναμη του AI για κοινωνικό καλό.