Connect with us

Ηθική

Andrew Pery, Ethics Evangelist, ABBYY – Interview Series

mm

Ο Andrew Pery, είναι ο Ethics Evangelist στην ABBYY, μια εταιρεία ψηφιακής νοημοσύνης. Ενδυναμώνουν τις οργανώσεις να έχουν πρόσβαση στην πολύτιμη, αλλά συχνά δύσκολο να αποκτηθεί, εποπτεία στις λειτουργίες τους που επιτρέπουν την πραγματική μεταμόρφωση των επιχειρήσεων.

Η ABBYY πρόσφατα εξέδωσε μια Παγκόσμια Πρωτοβουλία για την Προώθηση της Ανάπτυξης Αξιόπιστου Τεχνικού Νοού για την Προώθηση της Ανάπτυξης Αξιόπιστου Τεχνικού Νοού. Αποφασίσαμε να ρωτήσουμε τον Andrew ερωτήσεις σχετικά με την ηθική στα τεχνητά νοήματα, τις καταχρήσεις των τεχνητών νοημάτων και τι μπορεί να κάνει η βιομηχανία των τεχνητών νοημάτων για αυτές τις ανησυχίες στο μέλλον.

Τι είναι αυτό που αρχικά προκάλεσε το ενδιαφέρον σας για την ηθική στα τεχνητά νοήματα;

Αυτό που αρχικά προκάλεσε το ενδιαφέρον μου για την ηθική στα τεχνητά νοήματα ήταν ένα βαθύ ενδιαφέρον για το σημείο τομής του νόμου και της τεχνολογίας των τεχνητών νοημάτων. Ξεκίνησα την καριέρα μου στο εγκληματικό δίκαιο, αντιπροσωπεύοντας φτωχούς κατηγορούμενους που δεν είχαν τις οικονομικές δυνατότητες να αντέξουν τις νομικές υπηρεσίες. Στη συνέχεια, μεταπήδησα στην τεχνολογία, εστιάζοντας στην εφαρμογή της προηγμένης αναζήτησης και των τεχνητών νοημάτων στη δίκη. Ως Πιστοποιημένος Επαγγελματίας Δεδομένων Ιδιωτικού Χαρακτήρα, είμαι ιδιαίτερα παθιασμένος με το δίκαιο της ιδιωτικής ζωής και τη σωστή χρήση της τεχνολογίας των τεχνητών νοημάτων που συμμορφώνεται με και ενισχύει τα δικαιώματα ιδιωτικής ζωής.

Η τεχνολογία αναγνώρισης προσώπου συχνά καταχράζεται από πηγές εξουσίας, συμπεριλαμβανομένης της κυβέρνησης των ΗΠΑ. Πόσο μεγάλη κοινωνική ανησυχία πρέπει να είναι αυτό;

Οι επιπτώσεις της τεχνολογίας αναγνώρισης προσώπου πρέπει να είναι μια σημαντική κοινωνική ανησυχία, καθώς αυτή η τεχνολογία μπορεί να επηρεάσει τόσο πολλά θεμελιώδη δικαιώματα, συμπεριλαμβανομένων των οικονομικών, κοινωνικών και ασφαλιστικών δικαιωμάτων.

Υπάρχουν σαφείς και πειστικές ενδείξεις ότι οι αλγόριθμοι αναγνώρισης προσώπου είναι αξιόπιστοι. Μια μελέτη του NIST για τους αλγόριθμους αναγνώρισης προσώπου βρήκε ότι οι Αφροαμερικανοί ήταν έως και 100 φορές πιο πιθανό να αναγνωριστούν λανθασμένα. Μια παρόμοια μελέτη από το Πανεπιστήμιο Georgetown βρήκε ότι οι αλγόριθμοι αναγνώρισης προσώπου που βασίζονται σε φωτογραφίες αναγνώρισης προέβησαν σε υψηλό ποσοστό ψευδών θετικών που σχετίζονται με Αφροαμερικανούς ατόμους, και μια μελέτη του MIT το 2018 για το λογισμικό αναγνώρισης προσώπου της Amazon βρήκε ότι ενώ οι λευκοί άνδρες αναγνωρίστηκαν με ακρίβεια 99% του χρόνου, τα σκούρα δέρματα ατόμων παρήγαγαν έως και 35% ψευδείς θετικούς.

Είναι για τους λόγους αυτούς που οι ρυθμιστές αρχίζουν να λαμβάνουν μέτρα για να απαγορεύσουν τη χρήση της τεχνολογίας αναγνώρισης προσώπου, ιδιαίτερα στο контέκστ της επιτήρησης και του προφίλ. Για παράδειγμα, η Γερουσία της Καλιφόρνιας ψήφισε ένα κρατικό απαγόρευση της χρήσης της τεχνολογίας αναγνώρισης προσώπου και άλλων μεθόδων βιομετρικής επιτήρησης.

Υπάρχει επίσης ορμή μέσα στην τεχνολογική κοινότητα να αποσυρθεί από την αγορά του λογισμικού αναγνώρισης προσώπου. Η IBM ανακοίνωσε ότι θα σταματήσει να πωλεί λογισμικό αναγνώρισης προσώπου, επικαλούμενη ότι παραβιάζει τα βασικά ανθρώπινα δικαιώματα και τις βασικές ελευθερίες. Η Microsoft ανακοίνωσε μια παρόμοια απόφαση να διακόψει την πώληση της τεχνολογίας αναγνώρισης προσώπου, επικαλούμενη τις θεμελιώδεις ανθρώπινες ελευθερίες.

Το λογισμικό COMPAS που έχει χρησιμοποιηθεί από τα δικαστήρια των ΗΠΑ για την αξιολόγηση του κινδύνου εγκλήματος έχει λανθασμένα χαρακτηρίσει ορατά μειονοτικά άτομα ως πιο πιθανό να επανακατηγορηθούν από λευκά άτομα. Γνωρίζοντας αυτό, πρέπει να χρησιμοποιηθεί η τεχνητή νοημοσύνη στα δικαστήρια ακόμη και ως επιλογή;

Οι μελέτες του COMPAS βρήκαν ότι δεν είναι καλύτερη στην πρόβλεψη εγκλημάτων από τυχαίους ανθρώπους. Ενώ η προγνωστική ανάλυση παρέχει σημαντική αξία σε εμπορικό контέκστ, έχει αποδειχθεί ότι οδηγεί σε ανισότητες στην εφαρμογή της στην ποινική δικαιοσύνη. Αυτό είναι εμφανές σε μια αναφορά που δημοσιεύθηκε από το Pro Publica, η οποία βρήκε ότι το COMPAS, το πιο δημοφιλές λογισμικό που χρησιμοποιείται από τα δικαστήρια των ΗΠΑ για την αξιολόγηση του κινδύνου εγκλήματος, λανθασμένα χαρακτήρισε ορατά μειονοτικά άτομα ως πιο πιθανό να επανακατηγορηθούν σε διπλάσιο ρυθμό από λευκά άτομα.

Αυτές οι ανισότητες προκάλεσαν στον τότε Γενικό Εισαγγελέα Eric Holder να αμφισβητήσει την αξιοπιστία και να εκφράσει ανησυχίες σχετικά με τις πιθανές ανισότητες που προκύπτουν από την εφαρμογή της τεχνολογίας των τεχνητών νοημάτων για την πρόβλεψη των ποσοστών επανακατηγορίας μέσα στο πληθυσμό των κατηγορουμένων.

Πώς μπορεί η κοινωνία να αποφύγει το να προγραμματίζει ακούσια αρνητικές προκαταλήψεις στα συστήματα τεχνητής νοημοσύνης;

Πρώτον, πρέπει να υπάρχει μια αναγνώριση ότι η τεχνητή νοημοσύνη μπορεί να παράγει ακούσια προκαταλήψεις. Η μείωση του αρνητικού της αντικτύπου απαιτεί μια ολιστική προσέγγιση που αποτελείται από την ανάπτυξη οδηγιών ηθικής τεχνητής νοημοσύνης, όπως προτείνεται από τα Οδηγικά Πλαίσια της OECD. Αυτό βασίζεται σε επτά θεμελιώδεις αρχές, συμπεριλαμβανομένης της ανθρώπινης agency και εποπτείας, της τεχνικής ανθεκτικότητας και ασφάλειας, της ιδιωτικής ζωής και της διακυβέρνησης, της διαφάνειας, της多μορφίας και της μη διακρίσεως, του κοινωνικού благού και της ευθύνης.

Δεύτερον, η συμμόρφωση με νομικά πλαίσια που προστατεύουν από την αυτοματοποιημένη προφίλωση είναι κρίσιμη. Για παράδειγμα, η ΕΕ έχει μια μακρά ιστορία σεβασμού και προστασίας των δικαιωμάτων ιδιωτικής ζωής, με την πιο πρόσφατη και ισχυρή έκφραση να είναι το Γενικό Κανονισμό Προστασίας Δεδομένων (GDPR), το οποίο προστατεύει ειδικά από την αυτοματοποιημένη λήψη αποφάσεων.

Τρίτον, πρέπει να υπάρχει μια βιομηχανική ευθύνη για το πώς αναπτύσσεται η τεχνολογία των τεχνητών νοημάτων και μια δέσμευση να παρέχει διαφάνεια χωρίς να επηρεάζει τα δικαιώματα ιδιοκτησίας. Υπάρχουν θετικές εξελίξεις εδώ. Για παράδειγμα, το Partnership on AI είναι một οργανισμός με περισσότερους από 80 μέλη σε 13 χώρες αφιερωμένο στην έρευνα και συζήτηση για κρίσιμα ζητήματα των τεχνητών νοημάτων.

Τέλος, οι τεχνολογικές οργανώσεις πρέπει να τηρήσουν μια δέσμευση να αναλάβουν μια αξιολόγηση αντικτύπου προκαταλήψεων πριν από την εμπορική κυκλοφορία των αλγορίθμων τεχνητής νοημοσύνης, ιδιαίτερα όταν οι εφαρμογές τους επηρεάζουν τα δικαιώματα ιδιωτικής ζωής και ασφάλειας. Ερωτήσεις που οι τεχνολογικοί ηγέτες πρέπει να λάβουν υπόψη πριν από την κυκλοφορία νέων εφαρμογών που βασίζονται στην τεχνητή νοημοσύνη περιλαμβάνουν: Είναι τα δεδομένα που αυτή η τεχνολογία εκπαιδεύτηκε επαρκώς διαφορετικά; Πώς θα ανιχνευθεί η προκατάληψη; Πώς θα ελεγχθεί και από ποιόν; Ποια είναι οι ενθαρρύνσεις των αναπτυξιακών; Ποιοι θα κερδίσουν εμπορικά από αυτό;

Είναι σημαντικό να θυμόμαστε ότι οι λύσεις της τεχνητής νοημοσύνης αντανακλούν τα υποκείμενα δεδομένα που εκπαιδεύονται, οπότε είναι κρίσιμο να διασφαλιστεί ότι αυτά τα δεδομένα δεν είναι προκατειλημμένα και αντανακλούν σωστά τη διαφορετικότητα των συνιστωσών που θα εξυπηρετηθούν από αυτήν την λύση.

Σύμφωνα με τα λόγια της ερευνήτριας της τεχνητής νοημοσύνης, καθηγήτρια Joanna Bryson, “εάν τα υποκείμενα δεδομένα αντανακλούν στερεότυπα, ή εάν εκπαιδεύσετε την τεχνητή νοημοσύνη από την ανθρώπινη κουλτούρα, θα βρείτε προκατάληψη. Και αν δεν είμαστε προσεκτικοί, κινδυνεύουμε να ενσωματώσουμε αυτήν την προκατάληψη στα προγράμματα υπολογιστή που είναι ταχύτατα υπεύθυνα για τη διεξαγωγή όλων, από νοσοκομεία σε σχολεία σε φυλακές – προγράμματα που υποτίθεται ότι θα εξαλείψουν αυτές τις προκαταλήψεις από την αρχή”.

Η ABBYY πρόσφατα εξέδωσε μια Παγκόσμια Πρωτοβουλία για την Προώθηση της Ανάπτυξης Αξιόπιστου Τεχνικού Νοού. Πόσο σημαντική είναι αυτή η πρωτοβουλία για το μέλλον της ABBYY;

Η απόφαση να αναπτύξουμε την παγκόσμια πρωτοβουλία μας για την αξιόπιστη τεχνητή νοημοσύνη είναι μια σημαντική απόφαση που οδηγείται από την πίστη μας ότι ως οργανισμός των τεχνολογιών μας επηρεάζουν επιχειρήσεις σε όλο τον κόσμο και εξυπηρετούν δεκάδες χιλιάδες ατόμων, έχουμε την υποχρέωση να είμαστε καλοί εταιρικοί πολίτες με κοινωνική συνείδηση. Όχι μόνο αυτό βοηθά να ενισχύσει την εμπιστοσύνη των παγκόσμιων πελατών και συνεργατών μας, αλλά επίσης βοηθά να διασφαλιστεί ότι οι τεχνολογίες μας συνεχίζουν να έχουν μια βαθιά επίδραση με τρόπο που ωφελεί το κοινό καλό.

Αυτό επίσης έχει καλό επιχειρηματικό νόημα να προωθήσει και να υποστηρίξει την αξιόπιστη χρήση της τεχνητής νοημοσύνης. Αυτό ενισχύει την εμπορική μας ταυτότητα, ενισχύει την εμπιστοσύνη με τους συνεργάτες μας και το κοινό. Η εμπιστοσύνη μεταφράζεται σε επαναλαμβανόμενη επιχείρηση και σε βιώσιμη ανάπτυξη.

Μέρος αυτής της πρωτοβουλίας είναι η ABBYY να δεσμευτεί να καλλιεργεί μια κουλτούρα που προωθεί την ηθική χρήση της τεχνητής νοημοσύνης και την κοινωνική της उपयσιμότητα. Τι πρέπει να γίνει για άλλες εταιρείες να καλλιεργήσουν μια παρόμοια κουλτούρα;

Οι τεχνολογικές εταιρείες πρέπει να κατασκευάσουν ένα πλαίσιο για την ηθική χρήση της τεχνητής νοημοσύνης. Το μέτρο της τέτοιας δέσμευσης εξαρτάται από τις προβλεπόμενες εφαρμογές των αλγορίθμων της τεχνητής νοημοσύνης. Ο καλύτερος τρόπος για να αξιολογήσει την επίδρασή της είναι να εφαρμόσει την αρχή “μη κάνε κακό”. Η δέσμευση στην διαφάνεια είναι επίσης εξαιρετικά σημαντική. Ενώ τα δικαιώματα ιδιοκτησίας πρέπει να ισορροπούν με την αρχή της αξιόπιστης τεχνητής νοημοσύνης, η σημασία της διαφάνειας και της ευθύνης για την υπεύθυνη χρήση της τεχνητής νοημοσύνης πρέπει να εξαγγελθεί και να επικοινωνηθεί καθ’ όλη τη διάρκεια της οργάνωσης.

Μια από τις πρωτοβουλίες που έχει δεσμευτεί η ABBYY είναι να παρέχει τεχνολογίες της τεχνητής νοημοσύνης που είναι κοινωνικά και οικονομικά ωφέλιμες. Αυτό μπορεί να είναι một δύσκολο ισορροπία να επιτευχθεί. Πώς μπορούν οι εταιρείες να εφαρμόσουν καλύτερα这一 ισορροπία;

Οι ηγέτες μπορούν να επιτύχουν αυτήν την ισορροπία λαμβάνοντας υπόψη τις συστάσεις που προτείνονται από το Deloitte: Η σχεδίαση της ηθικής στην τεχνητή νοημοσύνη αρχίζει με τον προσδιορισμό του τι έχει σημασία για τους ενδιαφερόμενους, όπως οι πελάτες, οι εργαζόμενοι, οι ρυθμιστές και το γενικό κοινό. Οι εταιρείες πρέπει να εγκαταστήσουν μια αφιερωμένη επιτροπή διακυβέρνησης και συμβουλευτικής για την τεχνητή νοημοσύνη από διαλειτουργικούς ηγέτες και εξωτερικούς συμβούλους που θα ασχοληθούν με πολυ-ενδιαφερόμενες ομάδες εργασίας και θα καθορίσουν και θα εποπτεύσουν τη διακυβέρνηση των λύσεων της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της σχεδίασης, της ανάπτυξης, της ανάπτυξης και της χρήσης.

Πώς ισορροπούμε τα εμπορικά μας ενδιαφέροντα και το κοινωνικό καλό ήταν πιο πρόσφατα εξαγγελμένο κατά τη διάρκεια της πανδημίας του Κοροναϊού. Καταστήσαμε πολλές από τις τεχνολογίες μας διαθέσιμες δωρεάν ή με μειωμένες τιμές για να βοηθήσουμε τα άτομα και τις οργανώσεις να διαχειριστούν την κρίση, να διατηρήσουν την επιχειρηματική συνέχεια και να υποστηρίξουν τους πελάτες τους εν μέσω απρόβλεπτων περιστάσεων.

Πρόσφατα, κάναμε τα τεχνολογικά μας πλαίσια διαθέσιμα μέσω του NeoML, της ανοιχτής βιβλιοθήκης μηχανικής μάθησης που μας επιτρέπει να αξιοποιήσουμε αποδεδειγμένα και αξιόπιστα μοντέλα για την προώθηση της καινοτομίας της τεχνητής νοημοσύνης.

Μπορείτε να μοιραστείτε απόψεις για την उपयσιμότητα της τεχνητής νοημοσύνης για εφαρμογές COVID-19 για την ανίχνευση επαφών και τις ανάγκες για ισορροπία του δικαιώματος στην ιδιωτική ζωή;

Αυτό είναι ένα ιδιαίτερα εύθραυστο ζήτημα. Υπάρχουν εκείνοι που υποστηρίζουν ότι η εφαρμογή των εφαρμογών κινητής ανίχνευσης αντιπροσωπεύει μια ανεπιθύμητη εισβολή στα δικαιώματα ιδιωτικής ζωής. Από την άλλη πλευρά, όταν πρόκειται για δημόσια ασφάλεια, υπάρχουν πάντα όρια στα δικαιώματα γενικά. Είναι μια ισορροπία μεταξύ δικαιωμάτων και ευθυνών. Ωστόσο, τα δικαιώματα δεν είναι απόλυτα. Η περιέγκλειση μιας παγκόσμιας πανδημίας απαιτεί συντονισμένη δράση και εφαρμογή πόρων και τεχνολογιών που μπορούν να χρησιμοποιηθούν υπεύθυνα για την προστασία του πληθυσμού.

Αυτή η ισορροπία μεταξύ των ατομικών δικαιωμάτων ιδιωτικής ζωής και του κοινού καλού αναγνωρίζεται μέσα σε ένα νομικό πλαίσιο. Για παράδειγμα, το GDPR αναφέρει έξι νομικές βάσεις για τη νόμιμη επεξεργασία προσωπικών δεδομένων, συμπεριλαμβανομένης μιας πρόβλεψης που όταν η επεξεργασία είναι απαραίτητη για το δημόσιο συμφέρον, τέτοια επεξεργασία των προσωπικών δεδομένων είναι δικαιολογημένη χωρίς να απαιτείται η συγκατάθεση του υποκειμένου.

Επιπλέον, το άρθρο 46 του GDPR ορίζει ρητά ότι η επεξεργασία των προσωπικών δεδομένων είναι δικαιολογημένη χωρίς να απαιτείται η συγκατάθεση του υποκειμένου σε ανθρωπιστικές εκτάκτες περιπτώσεις, συμπεριλαμβανομένων των επιδημιών. Ωστόσο, είναι σημαντικό να σημειωθεί ότι το άρθρο 46 ερμηνεύει την εφαρμογή της πρόβλεψης του δημόσιου συμφέροντος πολύ στενά, σημειώνοντας ότι πρέπει να λαμβάνει χώρα μόνο όταν δεν μπορεί να βασιστεί σε άλλη νομική βάση.

Εκτός από την ισορροπία των δικαιωμάτων ιδιωτικής ζωής με το δημόσιο συμφέρον, είναι επίσης υποχρεωτικό για τον τεχνολογικό τομέα και τους νομοθέτες να εφαρμόσουν ηθικά ήθη και διαφανείς οδηγίες σχετικά με τη χρήση της τεχνητής νοημοσύνης για την ανίχνευση και τη διαφορά των ευαίσθητων υγείας πληροφοριών. Οι μεγάλες τεχνολογικές εταιρείες, συμπεριλαμβανομένων της Google και της Facebook, έχουν ήδη ξεκινήσει πρωτοβουλίες για την ανίχνευση των κινήσεων των χρηστών για την ταυτοποίηση του πώς εξαπλώνεται το ιό και την αξιολόγηση της αποτελεσματικότητας των μέτρων κοινωνικής αποστασιοποίησης.

Πιστεύω ότι όσο τα δεδομένα είναι ανώνυμα, η χρήση τους έχει κοινωνική उपयσιμότητα.

Υπάρχει κάτι άλλο που θα ήθελε να μοιραστεί σχετικά με την καινούρια Παγκόσμια Πρωτοβουλία της ABBYY για την Προώθηση της Ανάπτυξης Αξιόπιστου Τεχνικού Νοού;

Οι ρυθμίσεις έχουν την τάση να παραμεθούν από την τεχνολογική καινοτομία, επομένως, οι εταιρείες πρέπει να αναλάβουν einen προδραστικό ρόλο στην προώθηση της διαφάνειας και της ευθύνης για τις τεχνολογίες της τεχνητής νοημοσύνης και τον αντικτύπο τους στα δικαιώματα ιδιωτικής ζωής και ασφάλειας. Η πρωτοβουλία μας αντανακλά την δέσμευσή μας σε αυτήν την προσπάθεια. Από την ίδρυση μας, έχουμε δημιουργήσει καινοτόμες τεχνολογίες που διατηρούν την πολύτιμη πληροφορία και τη μετατρέπουν σε ενεργό γνώση.

Επιπλέον, η ηθική χρήση της τεχνολογίας της τεχνητής νοημοσύνης δεν πρέπει να θεωρείται μόνο σε νομική βάση, αλλά και ως μια ηθική υποχρέωση και ένα επιχειρηματικό ζήτημα. Εάν οι λύσεις σας έχουν eine μεγάλη εμβέλεια και επηρεάζουν επιχειρηματικά κρίσιμες λειτουργίες, πρέπει να είναι ένα βιομηχανικό πρότυπο να είναι διαφανείς στην εφαρμογή της τεχνολογίας της τεχνητής νοημοσύνης.

Ευχαριστούμε πολύ για την απάντηση σε αυτά τα σημαντικά ερωτήματα. Για να δείτε τις οδηγίες και την προσέγγιση της ABBYY για την τήρηση και την προώθηση των αξιόπιστων αρχών της τεχνητής νοημοσύνης, παρακαλούμε πατήστε εδώ. Όποιος επιθυμεί να μάθει περισσότερα για την ABBYY γενικά μπορεί να επισκεφθεί την ιστοσελίδα της ABBYY.

Ο Antoine είναι ένας οραματιστής ηγέτης και συνιδρυτής του Unite.AI, οδηγείται από μια αμετάβλητη страсть για το σχήμα και την προώθηση του μέλλοντος του AI και της ρομποτικής. Ένας σειριακός επιχειρηματίας, πιστεύει ότι το AI θα είναι τόσο διαταρακτικό για την κοινωνία όσο η ηλεκτρική ενέργεια, και συχνά πιάνεται να μιλάει για το δυναμικό των διαταρακτικών τεχνολογιών και του AGI.

Ως futurist, είναι αφοσιωμένος στο να εξερευνήσει πώς αυτές οι καινοτομίες θα σχήματίσουν τον κόσμο μας. Επιπλέον, είναι ο ιδρυτής του Securities.io, μια πλατφόρμα που επικεντρώνεται στις επενδύσεις σε τεχνολογίες που αναedefinουν το μέλλον και ανασχήματίσουν ολόκληρους τομείς.