στέλεχος Andrew Pery, Ethics Evangelist, ABBYY - Σειρά Συνεντεύξεων - Unite.AI
Συνδεθείτε μαζί μας

συνεντεύξεις

Andrew Pery, Ethics Evangelist, ABBYY – Σειρά Συνεντεύξεων

mm
Ενημερώθηκε on

Ο Andrew Pery, είναι ο Ευαγγελιστής Ηθικής στο Abbyy, μια εταιρεία ψηφιακής νοημοσύνης. Εξουσιοδοτούν τους οργανισμούς να έχουν πρόσβαση στην πολύτιμη, αλλά συχνά δύσκολο να αποκτήσουν, εικόνα για τις δραστηριότητές τους που επιτρέπει τον πραγματικό επιχειρηματικό μετασχηματισμό.

Η ABBYY κυκλοφόρησε πρόσφατα ένα Παγκόσμια πρωτοβουλία για την προώθηση της ανάπτυξης αξιόπιστης τεχνητής νοημοσύνης. Αποφασίσαμε να κάνουμε ερωτήσεις στον Andrew σχετικά με την ηθική στην τεχνητή νοημοσύνη, τις καταχρήσεις της τεχνητής νοημοσύνης και τι μπορεί να κάνει ο κλάδος της τεχνητής νοημοσύνης για αυτές τις ανησυχίες που προχωρούν.

Τι είναι αυτό που αρχικά υποκίνησε το ενδιαφέρον σας για την ηθική της τεχνητής νοημοσύνης;

Αυτό που αρχικά πυροδότησε το ενδιαφέρον μου για την ηθική της τεχνητής νοημοσύνης ήταν ένα βαθύ ενδιαφέρον για τη διασταύρωση του νόμου και της τεχνολογίας AI. Ξεκίνησα την καριέρα μου στο σύστημα ποινικής δικαιοσύνης, εκπροσωπώντας άπορους κατηγορούμενους που δεν είχαν τα οικονομικά μέσα να αντέξουν οικονομικά τις νομικές υπηρεσίες. Στη συνέχεια πέρασα στην τεχνολογία εστιάζοντας στην εφαρμογή της προηγμένης αναζήτησης και της τεχνητής νοημοσύνης στη νομική πρακτική. Ως Πιστοποιημένος επαγγελματίας Προστασίας Προσωπικών Δεδομένων, είμαι ιδιαίτερα παθιασμένος με τη νομοθεσία περί απορρήτου και τη σωστή χρήση της τεχνολογίας AI που ευθυγραμμίζεται και ενισχύει τα δικαιώματα απορρήτου.

Η τεχνολογία αναγνώρισης προσώπου καταχράται συχνά από πηγές εξουσίας, συμπεριλαμβανομένης της κυβέρνησης των ΗΠΑ. Πόσο μεγάλη κοινωνική ανησυχία πρέπει να είναι αυτό;

Οι επιπτώσεις της τεχνολογίας αναγνώρισης προσώπου θα πρέπει να αποτελούν σημαντικό κοινωνικό μέλημα, καθώς αυτή η τεχνολογία μπορεί να επηρεάσει τόσα πολλά θεμελιώδη δικαιώματα, συμπεριλαμβανομένων των οικονομικών, κοινωνικών και δικαιωμάτων ασφάλειας.

Υπάρχουν σαφείς και πειστικές ενδείξεις ότι οι αλγόριθμοι αναγνώρισης προσώπου είναι αναξιόπιστοι. Ενα Μελέτη NIST των αλγορίθμων αναγνώρισης προσώπου διαπίστωσαν ότι οι Αφροαμερικανοί είχαν έως και 100 φορές περισσότερες πιθανότητες να αναγνωριστούν εσφαλμένα. Μια παρόμοια μελέτη από τη Νομική Σχολή Georgetown διαπίστωσε ότι οι αλγόριθμοι αναγνώρισης προσώπου που βασίζονται σε λήψεις με κούπες παρήγαγαν υψηλό ποσοστό ψευδώς θετικών αποτελεσμάτων που σχετίζονται με αφροαμερικανούς και  Μελέτη MIT 2018 για το λογισμικό αναγνώρισης προσώπου της Amazon διαπίστωσε ότι ενώ οι λευκοί άνδρες αναγνωρίστηκαν με ακρίβεια στο 99% των περιπτώσεων, τα άτομα με σκουρόχρωμο δέρμα δημιούργησαν έως και 35% ψευδώς θετικά αποτελέσματα.

Για αυτούς τους λόγους οι ρυθμιστικές αρχές αρχίζουν να λαμβάνουν μέτρα για την απαγόρευση της χρήσης τεχνολογιών αναγνώρισης προσώπου, ιδίως στο πλαίσιο της επιτήρησης και της δημιουργίας προφίλ. Για παράδειγμα, η Γερουσία της Καλιφόρνια πέρασε μια απαγόρευση σε όλη την πολιτεία σχετικά με τη χρήση τεχνολογίας αναγνώρισης προσώπου και άλλων μεθόδων βιομετρικής επιτήρησης.

Υπάρχει επίσης δυναμική στην τεχνολογική κοινότητα για να αποσυρθεί από το μάρκετινγκ λογισμικού αναγνώρισης προσώπου. Η IBM ανακοίνωσε ότι θα σταματήσει να πουλά λογισμικό αναγνώρισης προσώπου, επικαλούμενη ότι παραβιάζει βασικά ανθρώπινα δικαιώματα και βασικές ελευθερίες. Η Microsoft ανακοίνωσε επίσης μια παρόμοια απόφαση να διακόψει την πώληση της τεχνολογίας αναγνώρισης προσώπου, επικαλούμενη επίσης τα θεμελιώδη ανθρώπινα δικαιώματα.

Το λογισμικό COMPAS που έχει χρησιμοποιηθεί από τα δικαστήρια των ΗΠΑ για την αξιολόγηση του ποινικού κινδύνου έχει λανθασμένα χαρακτηρίσει τους παραβάτες της μειοψηφίας ως πιο πιθανό να επαναλάβουν τα αδικήματα από τους λευκούς παραβάτες. Γνωρίζοντας αυτό θα έπρεπε να είναι μια επιλογή η χρήση τεχνητής νοημοσύνης στα δικαστήρια;

Έρευνες της COMPAS διαπίστωσε ότι δεν είναι καλύτερο στην πρόβλεψη εγκλημάτων από τυχαίους ανθρώπους. Ενώ η προγνωστική ανάλυση προσφέρει σημαντική αξία σε ένα εμπορικό πλαίσιο, έχει αποδειχθεί ότι οδηγεί σε ανισότητες στην εφαρμογή της στην ποινική δικαιοσύνη. Αυτό είναι εμφανές στο α αναφέρουν δημοσιεύτηκε από την Pro Publica η οποία διαπίστωσε ότι COMPAS, το πιο δημοφιλές λογισμικό που χρησιμοποιείται από τα δικαστήρια των ΗΠΑ για την αξιολόγηση του ποινικού κινδύνου, χαρακτήρισε λανθασμένα τους παραβάτες της μειοψηφίας ως πιο πιθανό να επαναλάβουν το διπλάσιο ποσοστό από τους λευκούς παραβάτες.

Αυτές οι ανισότητες ώθησαν τον τότε Γενικό Εισαγγελέα Έρικ Χόλντερ να αμφισβητήσει τη δικαιοσύνη και εκφράσουν ανησυχίες σχετικά με τις πιθανές ανισότητες που δημιουργούνται από την εφαρμογή της τεχνολογίας AI για την πρόβλεψη των ποσοστών υποτροπής στον πληθυσμό των παραβατών.

Πώς μπορεί η κοινωνία να αποφύγει τον ακούσιο προγραμματισμό με αρνητικές προκαταλήψεις σε συστήματα AI;

Πρώτον, πρέπει να αναγνωριστεί ότι η τεχνητή νοημοσύνη μπορεί να έχει την τάση να παράγει ακούσια προκατάληψη που αναφέρεται ως ασυνείδητη προκατάληψη. Ο μετριασμός των δυσμενών επιπτώσεών του απαιτεί μια ολιστική προσέγγιση που συνίσταται στην ανάπτυξη κατευθυντήριων γραμμών ηθικής τεχνητής νοημοσύνης, όπως προτείνονται από τα Δεοντολογικά Πλαίσια του ΟΟΣΑ. Αυτό βασίζεται σε επτά θεμελιώδεις αρχές, συμπεριλαμβανομένης της ανθρώπινης δράσης και εποπτείας, της τεχνικής ευρωστίας και ασφάλειας, της ιδιωτικής ζωής και της διακυβέρνησης, της διαφάνειας, της διαφορετικότητας και της μη διάκρισης, της κοινωνικής ευημερίας και της υπευθυνότητας.

Δεύτερον, η τήρηση νομικών πλαισίων που προστατεύουν από την αυτοματοποιημένη δημιουργία προφίλ είναι το κλειδί. Για παράδειγμα, η ΕΕ είχε μακρά ιστορία σεβασμού και προστασίας των δικαιωμάτων απορρήτου, με την πιο πρόσφατη και ισχυρή έκφραση να είναι ο Γενικός Κανονισμός για την Προστασία Δεδομένων (GDPR) που προστατεύει συγκεκριμένα από αυτοματοποιημένη λήψη αποφάσεων.

Τρίτον, πρέπει να υπάρχει λογοδοσία του κλάδου για τον τρόπο με τον οποίο αναπτύσσεται η τεχνολογία AI και δέσμευση για παροχή διαφάνειας χωρίς να επηρεάζονται τα ιδιόκτητα δικαιώματα πνευματικής ιδιοκτησίας τους. Εδώ υπάρχουν θετικές εξελίξεις. Για παράδειγμα, το Partnership on AI είναι ένας οργανισμός με περισσότερα από 80 μέλη σε 13 χώρες αφιερωμένος στην έρευνα και τη συζήτηση για βασικά ζητήματα τεχνητής νοημοσύνης.

Τέλος, οι τεχνολογικοί οργανισμοί θα πρέπει να τηρήσουν τη δέσμευσή τους να προβούν σε εκτίμηση επιπτώσεων μεροληψίας πριν από την εμπορική κυκλοφορία αλγορίθμων τεχνητής νοημοσύνης, ιδιαίτερα όταν οι εφαρμογές τους επηρεάζουν τα δικαιώματα ιδιωτικότητας και ασφάλειας. Ερωτήματα που πρέπει να εξετάσουν οι ηγέτες της τεχνολογίας πριν κυκλοφορήσουν νέες εφαρμογές με δυνατότητα AI περιλαμβάνουν: Είναι τα δεδομένα στα οποία εκπαιδεύτηκε αυτή η τεχνολογία αρκετά διαφορετικά; Πώς θα εντοπιστεί η μεροληψία; Πώς δοκιμάζεται και από ποιον; Ποια είναι τα κίνητρα για προγραμματιστές; Ποιος θα κερδίσει εμπορικά από αυτό;

Είναι σημαντικό να θυμάστε ότι οι λύσεις τεχνητής νοημοσύνης αντικατοπτρίζουν τα υποκείμενα δεδομένα στα οποία έχουν εκπαιδευτεί αυτές οι εφαρμογές, επομένως η διασφάλιση ότι αυτά τα δεδομένα δεν είναι προκατειλημμένα και αντικατοπτρίζουν σωστά την ποικιλομορφία των στοιχείων που θα εξυπηρετήσει η λύση είναι κρίσιμη. Σύμφωνα με τα λόγια του ερευνητή AI Professor Joanna Bryson, «Εάν τα υποκείμενα δεδομένα αντικατοπτρίζουν στερεότυπα ή εάν εκπαιδεύσετε την τεχνητή νοημοσύνη από την ανθρώπινη κουλτούρα, θα βρείτε προκατάληψη. Και αν δεν είμαστε προσεκτικοί, κινδυνεύουμε να ενσωματώσουμε αυτή τη μεροληψία στα προγράμματα υπολογιστών που αναλαμβάνουν γρήγορα τη λειτουργία όλων, από νοσοκομεία έως σχολεία έως φυλακές – προγράμματα που υποτίθεται ότι εξαλείφουν αυτές τις προκαταλήψεις εξαρχής».

Η ABBYY ξεκίνησε πρόσφατα μια Παγκόσμια Πρωτοβουλία που προωθεί την ανάπτυξη της Αξιόπιστης Τεχνητής Νοημοσύνης. Πόσο σημαντική είναι αυτή η πρωτοβουλία για το μέλλον της ABBYY;

Η απόφαση για την ανάπτυξη μας παγκόσμια πρωτοβουλία για αξιόπιστη τεχνητή νοημοσύνη είναι μια σημαντική απόφαση που βασίζεται στην πεποίθησή μας ότι ως οργανισμός του οποίου οι τεχνολογίες επηρεάζουν τις επιχειρήσεις σε όλο τον κόσμο και εξυπηρετούν δεκάδες χιλιάδες μεμονωμένους χρήστες, έχουμε υποχρέωση να είμαστε καλοί εταιρικοί πολίτες με κοινωνική συνείδηση. Αυτό όχι μόνο συμβάλλει στη δημιουργία μεγαλύτερης εμπιστοσύνης από τους πελάτες και τους συνεργάτες μας παγκοσμίως, αλλά βοηθά επίσης να διασφαλίσουμε ότι οι τεχνολογίες μας θα συνεχίσουν να έχουν βαθύ αντίκτυπο με τρόπο που ωφελεί το κοινό καλό.

Είναι επίσης λογικό να προωθείται και να υποστηρίζεται αξιόπιστη χρήση της τεχνητής νοημοσύνης. Ενισχύει την επωνυμία μας, εμπνέει εμπιστοσύνη με τους πελάτες μας παγκοσμίως και το οικοσύστημα συνεργατών μας. Η εμπιστοσύνη μεταφράζεται σε επαναλαμβανόμενες επιχειρήσεις και σε βιώσιμη ανάπτυξη.

Μέρος αυτής της πρωτοβουλίας είναι η δέσμευση της ABBYY για την προώθηση μιας κουλτούρας που προωθεί την ηθική χρήση της τεχνητής νοημοσύνης και την κοινωνική της χρησιμότητα. Τι πρέπει να γίνει για άλλες εταιρείες για να καλλιεργήσουν μια παρόμοια κουλτούρα;

Οι εταιρείες τεχνολογίας πρέπει να δημιουργήσουν ένα πλαίσιο για την ηθική χρήση της τεχνητής νοημοσύνης. Η έκταση αυτής της δέσμευσης εξαρτάται από τις επιδιωκόμενες εφαρμογές των αλγορίθμων AI. Ο καλύτερος τρόπος για να μετρήσετε τον αντίκτυπό του είναι να εφαρμόσετε το μη βλάπτω αρχή και έχουν δέσμευση από πάνω προς τα κάτω για την αξιόπιστη χρήση της τεχνητής νοημοσύνης.

Εξίσου σημαντική είναι η δέσμευση για διαφάνεια. Ενώ τα δικαιώματα πνευματικής ιδιοκτησίας θα πρέπει να εξισορροπούνται με την αρχή της αξιόπιστης τεχνητής νοημοσύνης, η σημασία της διαφάνειας και της λογοδοσίας για την υπεύθυνη χρήση της τεχνητής νοημοσύνης θα πρέπει να διατυπώνεται με σαφήνεια και να κοινοποιείται σε ολόκληρο τον οργανισμό.

Μία από τις πρωτοβουλίες στις οποίες έχει δεσμευτεί η ABBYY είναι η παροχή τεχνολογιών τεχνητής νοημοσύνης που είναι κοινωνικά και οικονομικά επωφελείς. Αυτό μπορεί να είναι μια δύσκολη ισορροπία για να επιτευχθεί. Πώς μπορούν οι εταιρείες να το εφαρμόσουν καλύτερα;

Οι ηγέτες μπορούν να επιτύχουν αυτήν την ισορροπία λαμβάνοντας υπόψη τις συστάσεις που προσφέρονται από Deloitte: Ο σχεδιασμός της ηθικής στην τεχνητή νοημοσύνη ξεκινά με τον καθορισμό του τι έχει σημασία για τα ενδιαφερόμενα μέρη όπως οι πελάτες, οι υπάλληλοι, οι ρυθμιστικές αρχές και το ευρύ κοινό. Οι εταιρείες θα πρέπει να δημιουργήσουν μια ειδική επιτροπή διακυβέρνησης και συμβουλευτικής τεχνητής νοημοσύνης από διαλειτουργικούς ηγέτες και εξωτερικούς συμβούλους που θα συνεργάζονται με πολυμερείς ομάδες εργασίας και θα καθιερώνουν και θα επιβλέπουν τη διακυβέρνηση λύσεων με δυνατότητα τεχνητής νοημοσύνης, συμπεριλαμβανομένου του σχεδιασμού, της ανάπτυξης, της ανάπτυξης και της χρήσης τους.

Ο τρόπος με τον οποίο εξισορροπούμε τα εμπορικά μας συμφέροντα και το κοινωνικό μας καλό αποδείχθηκε πιο πρόσφατα κατά τη διάρκεια της πανδημίας του κορωνοϊού. Διαθέσαμε πολλές από τις τεχνολογίες μας δωρεάν ή σε μειωμένες τιμές για να βοηθήσουμε άτομα και οργανισμούς να αντιμετωπίσουν την κρίση, να διατηρήσουν την επιχειρηματική συνέχεια και να υποστηρίξουν τους πελάτες τους σε απρόβλεπτες συνθήκες.

Επίσης, πρόσφατα διαθέσαμε τα τεχνολογικά μας πλαίσια Νεωδικός, η βιβλιοθήκη μηχανικής εκμάθησης ανοιχτού κώδικα μεταξύ πλατφορμών που επιτρέπει στους προγραμματιστές λογισμικού να αξιοποιήσουν αποδεδειγμένα και αξιόπιστα μοντέλα για να προωθήσουν την καινοτομία της τεχνητής νοημοσύνης.

Θα μπορούσατε να μοιραστείτε απόψεις σχετικά με τη χρήση AI για εφαρμογές COVID-19 για την ανίχνευση επαφών και τις ανάγκες εξισορρόπησης του δικαιώματος στην ιδιωτικότητα;

Αυτό είναι ένα ιδιαίτερα ενοχλητικό ζήτημα. Υπάρχουν εκείνοι που υποστηρίζουν ότι η εφαρμογή εφαρμογών παρακολούθησης για κινητά αντιπροσωπεύει μια ανεπιθύμητη παραβίαση των δικαιωμάτων απορρήτου. Από την άλλη, όσον αφορά τη δημόσια ασφάλεια, υπάρχουν πάντα όρια στα δικαιώματα γενικά. Είναι ένας συμβιβασμός μεταξύ δικαιωμάτων και ευθυνών. Ωστόσο, τα δικαιώματα δεν είναι απόλυτα. Ο περιορισμός μιας παγκόσμιας πανδημίας απαιτεί συντονισμένη δράση και εφαρμογή πόρων και τεχνολογιών που μπορούν να χρησιμοποιηθούν υπεύθυνα για την προστασία του πληθυσμού γενικότερα.

Αυτή η ισορροπία μεταξύ των ατομικών δικαιωμάτων ιδιωτικής ζωής και του κοινού καλού αναγνωρίζεται σε ένα νομικό πλαίσιο. Για παράδειγμα, ο GDPR προσδιορίζει έξι λόγους για τη νόμιμη επεξεργασία δεδομένων προσωπικής ταυτοποίησης, συμπεριλαμβανομένης μιας διάταξης σύμφωνα με την οποία όταν η επεξεργασία είναι απαραίτητη για το δημόσιο συμφέρον, αυτή η επεξεργασία των PII δικαιολογείται χωρίς τη συγκατάθεση του υποκειμένου των δεδομένων.

Επιπλέον, η αιτιολογική σκέψη 46 του GDPR ορίζει άμεσα ότι η επεξεργασία των PII είναι δικαιολογημένη χωρίς τη λήψη συναίνεσης του υποκειμένου των δεδομένων σε ανθρωπιστικές καταστάσεις έκτακτης ανάγκης, συμπεριλαμβανομένων των επιδημιών. Ωστόσο, είναι σημαντικό να σημειωθεί ότι η αιτιολογική σκέψη 46 ερμηνεύει την εφαρμογή της διάταξης δημοσίου συμφέροντος πολύ στενά, σημειώνοντας ότι πρέπει να πραγματοποιείται μόνο όταν δεν μπορεί να βασιστεί σε άλλη νομική βάση.

Εκτός από την εξισορρόπηση των δικαιωμάτων απορρήτου με το δημόσιο συμφέρον, εναπόκειται επίσης στον τομέα της τεχνολογίας και στους υπεύθυνους χάραξης πολιτικής να εφαρμόσουν ηθικά ορθές, διαφανείς και δίκαιες κατευθυντήριες γραμμές σχετικά με τη χρήση προφίλ βάσει τεχνητής νοημοσύνης και την ανταλλαγή πολύ ευαίσθητων πληροφοριών υγείας. Μεγάλες εταιρείες τεχνολογίας, όπως η Google και το Facebook, έχουν ήδη ξεκινήσει πρωτοβουλίες για την παρακολούθηση των κινήσεων των χρηστών για τον εντοπισμό του τρόπου εξάπλωσης του ιού και την αξιολόγηση της αποτελεσματικότητας των μέτρων κοινωνικής απόστασης.

Πιστεύω ότι εφόσον η πληροφορία είναι ανώνυμη, η χρήση της έχει κοινωνική χρησιμότητα.

Υπάρχει κάτι άλλο που θα θέλατε να μοιραστείτε σχετικά με τη νέα παγκόσμια πρωτοβουλία της ABBYY για την προώθηση της ανάπτυξης αξιόπιστης τεχνητής νοημοσύνης;

Οι κανονισμοί τείνουν να καθυστερούν την τεχνολογική καινοτομία, επομένως, οι εταιρείες πρέπει να αναλάβουν ενεργό ρόλο στην προώθηση της διαφάνειας και της λογοδοσίας με τις τεχνολογίες τεχνητής νοημοσύνης και τον τρόπο με τον οποίο επηρεάζουν το απόρρητο και τα δικαιώματα ασφάλειας. Μας πρωτοβουλία αντανακλά τη δέσμευσή μας σε αυτή την προσπάθεια. Από την ίδρυσή μας, έχουμε δημιουργήσει καινοτόμες τεχνολογίες που διατηρούν πολύτιμες πληροφορίες και τις μετατρέπουν σε γνώση που μπορεί να γίνει πράξη.

Επιπλέον, η ηθική χρήση των τεχνολογιών τεχνητής νοημοσύνης δεν θα πρέπει να θεωρείται μόνο σε νομική βάση αλλά και ως ηθική υποχρέωση και επιχειρηματική επιταγή. Εάν οι λύσεις σας έχουν μεγάλη εμβέλεια και επηρεάζουν κρίσιμες για τις επιχειρήσεις λειτουργίες, θα πρέπει να αποτελεί βιομηχανικό πρότυπο η διαφάνεια στην εφαρμογή τεχνολογιών τεχνητής νοημοσύνης.

Σας ευχαριστώ πολύ που απαντήσατε σε αυτές τις σημαντικές ερωτήσεις. Για να δείτε τις κατευθυντήριες αρχές και την προσέγγιση της ABBYY για την τήρηση και την υπεράσπιση αξιόπιστων αρχών AI, παρακαλούμε κάντε κλικ εδώ. Όποιος θέλει να μάθει περισσότερα για την ABBYY γενικά μπορεί να επισκεφτεί το Ιστοσελίδα της ABBYY.

Ιδρυτικός συνεργάτης της unite.AI & μέλος της Τεχνολογικό Συμβούλιο Forbes, Ο Αντουάν είναι α μελλοντιστής που είναι παθιασμένος με το μέλλον της τεχνητής νοημοσύνης και της ρομποτικής.

Είναι επίσης ο Ιδρυτής του Securities.io, ένας ιστότοπος που εστιάζει στην επένδυση σε ανατρεπτική τεχνολογία.