στέλεχος Καθ. Julia Stoyanovich, Διευθύντρια του Κέντρου Υπεύθυνης ΤΝ - Σειρά Συνεντεύξεων - Unite.AI
Συνδεθείτε μαζί μας

συνεντεύξεις

Καθ. Julia Stoyanovich, Διευθύντρια του Κέντρου Υπεύθυνης ΤΝ – Σειρά Συνεντεύξεων

mm
Ενημερώθηκε on

Τζούλια Στογιάνοβιτς, είναι καθηγητής στο Tandon School of Engineering του NYU και ιδρυτικός Διευθυντής του Κέντρου Υπεύθυνης ΤΝ. Πρόσφατα παρέδωσε κατάθεση στην Επιτροπή Τεχνολογίας του Συμβουλίου της Νέας Υόρκης σχετικά με προτεινόμενο νομοσχέδιο που θα ρυθμίζει τη χρήση της τεχνητής νοημοσύνης για αποφάσεις προσλήψεων και απασχόλησης.

Είστε ο ιδρυτικός διευθυντής του Κέντρου Υπεύθυνης ΤΝ στο NYU. Θα μπορούσατε να μοιραστείτε μαζί μας μερικές από τις πρωτοβουλίες που έχει αναλάβει αυτός ο οργανισμός;

Συνδιευθύνω το Κέντρο Υπεύθυνης AI (R/AI) στο NYU με τον Steven Kuyan. Ο Στίβεν και εγώ έχουμε συμπληρωματικά ενδιαφέροντα και τεχνογνωσία. Είμαι ακαδημαϊκός, με υπόβαθρο στην επιστήμη των υπολογιστών και με έντονο ενδιαφέρον για εργασία που εμπνέεται από τη χρήση στη διασταύρωση της μηχανικής δεδομένων, της υπεύθυνης επιστήμης δεδομένων και της πολιτικής. Ο Στίβεν είναι ο διευθύνων σύμβουλος του NYU Tandon Future Labs, ένα δίκτυο εκκολαπτηρίων και επιταχυντών startup που είχε ήδη τεράστιο οικονομικό αντίκτυπο στη Νέα Υόρκη. Το όραμά μας για την R/AI είναι να βοηθήσουμε να γίνει η «υπεύθυνη τεχνητή νοημοσύνη» συνώνυμη με την «τεχνητή νοημοσύνη», μέσω ενός συνδυασμού εφαρμοσμένης έρευνας, δημόσιας εκπαίδευσης και αφοσίωσης, και βοηθώντας μεγάλες και μικρές εταιρείες – ιδιαίτερα μικρές – να αναπτύξουν υπεύθυνη τεχνητή νοημοσύνη.

Τους τελευταίους μήνες, η R/AI έχει συμμετάσχει ενεργά σε συζητήσεις σχετικά με την επίβλεψη ADS (Automated Decision Systems). Η προσέγγισή μας βασίζεται σε έναν συνδυασμό εκπαιδευτικών δραστηριοτήτων και δέσμευσης πολιτικής.

Η πόλη της Νέας Υόρκης εξετάζει έναν προτεινόμενο νόμο, Εντ 1894, που θα ρυθμίσει τη χρήση του ADS στις προσλήψεις μέσω ενός συνδυασμού ελέγχου και δημόσιας αποκάλυψης. Η R/AI υπέβαλε δημόσια σχόλια για το νομοσχέδιο, με βάση την έρευνά μας και τις γνώσεις που συγκεντρώσαμε από άτομα που αναζητούν εργασία μέσω πολλών δημόσια εμπλοκή δραστηριοτήτων.

Συνεργαστήκαμε και με Το GovLab στο NYU και με το Ινστιτούτο Ηθικής στην ΤΝ στο Τεχνικό Πανεπιστήμιο του Μονάχου σε ένα δωρεάν διαδικτυακό μάθημα που ονομάζεται "AI Ethics: Global Perspectives» που κυκλοφόρησε νωρίτερα αυτόν τον μήνα.

Ένα άλλο πρόσφατο έργο R/AI που έχει τραβήξει αρκετά την προσοχή είναι η σειρά κόμικς «Δεδομένα, Υπεύθυνα». Ο πρώτος τόμος της σειράς ονομάζεται «Mirror, Mirror», είναι διαθέσιμος στα Αγγλικά, Ισπανικά και Γαλλικά και είναι προσβάσιμος με πρόγραμμα ανάγνωσης οθόνης και στις τρεις γλώσσες. Το κόμικ πήρε το Η καινοτομία του μήνα βραβείο από το Metro Lab Network και το GovTech, και καλύφθηκε από το Toronto Star, Μεταξύ άλλων.

Ποια είναι μερικά από τα τρέχοντα ή πιθανά ζητήματα με προκατάληψη AI για αποφάσεις προσλήψεων και απασχόλησης;

Αυτό είναι ένα περίπλοκο ερώτημα που απαιτεί πρώτα να είμαστε σαφείς τι εννοούμε με τον όρο «προκατάληψη». Το βασικό πράγμα που πρέπει να σημειωθεί είναι ότι τα αυτοματοποιημένα συστήματα προσλήψεων είναι «προγνωστικά αναλυτικά στοιχεία» — προβλέπουν το μέλλον με βάση το παρελθόν. Το παρελθόν αντιπροσωπεύεται από ιστορικά δεδομένα σχετικά με άτομα που προσλήφθηκαν από την εταιρεία και σχετικά με την απόδοση αυτών των ατόμων. Το σύστημα στη συνέχεια «εκπαιδεύεται» σε αυτά τα δεδομένα, που σημαίνει ότι προσδιορίζει στατιστικά μοτίβα και τα χρησιμοποιεί για να κάνει προβλέψεις. Αυτά τα στατιστικά μοτίβα είναι η «μαγεία» της τεχνητής νοημοσύνης, σε αυτό βασίζονται τα προγνωστικά μοντέλα. Σαφώς, αλλά είναι σημαντικό, τα ιστορικά δεδομένα από τα οποία εξορύχθηκαν αυτά τα μοτίβα είναι σιωπηλά για άτομα που δεν προσλήφθηκαν, επειδή απλά δεν ξέρουμε πώς θα τα κατάφερναν στη δουλειά που δεν είχαν. Και εδώ είναι που παίζει ρόλο η προκατάληψη. Εάν προσλαμβάνουμε συστηματικά περισσότερα άτομα από συγκεκριμένες δημογραφικές και κοινωνικοοικονομικές ομάδες, τότε η ιδιότητα μέλους σε αυτές τις ομάδες και τα χαρακτηριστικά που συνδυάζονται με αυτήν την ένταξη στην ομάδα, θα γίνουν μέρος του προγνωστικού μοντέλου. Για παράδειγμα, αν δούμε ποτέ μόνο αποφοίτους κορυφαίων πανεπιστημίων να προσλαμβάνονται για εκτελεστικούς ρόλους, τότε το σύστημα δεν μπορεί να μάθει ότι άτομα που πήγαν σε διαφορετικό σχολείο μπορεί επίσης να τα πάνε καλά. Είναι εύκολο να δούμε ένα παρόμοιο πρόβλημα για το φύλο, τη φυλή και την κατάσταση αναπηρίας.

Η προκατάληψη στην τεχνητή νοημοσύνη είναι πολύ ευρύτερη από την απλή μεροληψία στα δεδομένα. Προκύπτει όταν προσπαθούμε να χρησιμοποιήσουμε την τεχνολογία όπου μια τεχνική λύση είναι απλώς ακατάλληλη ή όταν θέτουμε λάθος στόχους για την τεχνητή νοημοσύνη – συχνά επειδή δεν έχουμε διαφορετικές φωνές στο τραπέζι του σχεδιασμού ή όταν εγκαταλείπουμε πρακτορείο σε αλληλεπιδράσεις ανθρώπου – AI μετά την ανάπτυξη του AI. Καθένας από αυτούς τους λόγους μεροληψίας αξίζει τη δική του συζήτηση που πιθανότατα θα διαρκέσει περισσότερο από όσο το επιτρέπει ο χώρος σε αυτό το άρθρο. Και έτσι, για να παραμείνω συγκεντρωμένος, επιτρέψτε μου να επιστρέψω στην προκατάληψη στα δεδομένα.

Όταν εξηγώ την προκατάληψη στα δεδομένα, μου αρέσει να χρησιμοποιώ τη μεταφορά της αντανάκλασης του καθρέφτη. Τα δεδομένα είναι μια εικόνα του κόσμου, η αντανάκλασή του. Όταν σκεφτόμαστε την προκατάληψη στα δεδομένα, ανακρίνουμε αυτόν τον προβληματισμό. Μια ερμηνεία της «προκατάληψης στα δεδομένα» είναι ότι η αντανάκλαση είναι παραμορφωμένη – ο καθρέφτης μας υποδηλώνει ή υπερ-αντιπροσωπεύει ορισμένα μέρη του κόσμου ή αλλοιώνει με άλλο τρόπο τις μετρήσεις. Μια άλλη ερμηνεία της «προκατάληψης στα δεδομένα» είναι ότι, ακόμα κι αν η αντανάκλαση ήταν 100% πιστή, θα ήταν ακόμα μια αντανάκλαση του κόσμου όπως είναι σήμερα, και όχι του πώς θα μπορούσε ή θα έπρεπε να είναι. Είναι σημαντικό ότι δεν εξαρτάται από τα δεδομένα ή έναν αλγόριθμο να μας πει εάν είναι μια τέλεια αντανάκλαση ενός σπασμένου κόσμου ή μια σπασμένη αντανάκλαση ενός τέλειου κόσμου ή αν αυτές οι παραμορφώσεις συνδυάζονται. Εναπόκειται στους ανθρώπους –άτομα, ομάδες, κοινωνία εν γένει– να καταλήξουν σε συναίνεση σχετικά με το εάν είμαστε εντάξει με τον κόσμο όπως είναι, ή, αν όχι, πώς πρέπει να προχωρήσουμε για να τον βελτιώσουμε.

Επιστροφή στην προγνωστική ανάλυση: Όσο πιο έντονες είναι οι ανισότητες στα δεδομένα, ως αντανάκλαση του παρελθόντος, τόσο πιο πιθανό είναι να εντοπιστούν από τα μοντέλα πρόβλεψης και να αναπαραχθούν –και ακόμη και να επιδεινωθούν– στο μέλλον.

Εάν ο στόχος μας είναι να βελτιώσουμε τις πρακτικές προσλήψεών μας με γνώμονα την ισότητα και τη διαφορετικότητα, τότε απλά δεν μπορούμε να αναθέσουμε αυτή τη δουλειά σε μηχανές. Πρέπει να κάνουμε τη σκληρή δουλειά για τον εντοπισμό των πραγματικών αιτιών μεροληψίας στις προσλήψεις και την απασχόληση κατά μέτωπο και για τη διαπραγμάτευση μιας κοινωνικο-νομικής και τεχνικής λύσης με τη συμβολή όλων των ενδιαφερομένων. Η τεχνολογία σίγουρα μπορεί να παίξει έναν ρόλο βοηθώντας μας να βελτιώσουμε το status quo: μπορεί να μας βοηθήσει να παραμείνουμε ειλικρινείς σχετικά με τους στόχους και τα αποτελέσματά μας. Αλλά το να προσποιείται ότι η προκατάληψη των δεδομένων ή η προγνωστική ανάλυση θα λύσει τα βαθιά ριζωμένα προβλήματα των διακρίσεων στις προσλήψεις είναι στην καλύτερη περίπτωση αφελές.

Πρόσφατα καταθέσατε στην Επιτροπή Τεχνολογίας του Συμβουλίου της Νέας Υόρκης, ένα εντυπωσιακό σχόλιο ήταν το εξής: «Διαπιστώνουμε ότι τόσο ο προϋπολογισμός του διαφημιστή όσο και το περιεχόμενο της διαφήμισης συμβάλλουν σημαντικά στη λοξή προβολή της διαφήμισης του Facebook. Ουσιαστικά, παρατηρούμε σημαντική απόκλιση στην προβολή κατά φύλο και φυλετικές γραμμές για «πραγματικές» διαφημίσεις για ευκαιρίες απασχόλησης και στέγασης παρά τις ουδέτερες παραμέτρους στόχευσης». Ποιες είναι μερικές λύσεις για την αποφυγή αυτού του τύπου μεροληψίας;

Αυτό το σχόλιο που έκανα βασίζεται σε ένα λαμπρό έγγραφο των Ali et al. που ονομάζεται «Διακρίσεις μέσω βελτιστοποίησης: Πώς η παράδοση διαφημίσεων του Facebook μπορεί να οδηγήσει σε προκατειλημμένα αποτελέσματα». Οι συγγραφείς διαπιστώνουν ότι ο ίδιος ο μηχανισμός προβολής διαφημίσεων είναι υπεύθυνος για την εισαγωγή και την ενίσχυση των επιπτώσεων που προκαλούν διακρίσεις. Περιττό να πούμε ότι αυτό το εύρημα είναι εξαιρετικά προβληματικό, ειδικά καθώς διαδραματίζεται στο πλαίσιο της αδιαφάνειας στο Facebook και σε άλλες πλατφόρμες - Google και Twitter. Το βάρος βαρύνει τις πλατφόρμες να αποδείξουν επειγόντως και πειστικά ότι μπορούν να κυριαρχήσουν σε μεροληπτικές συνέπειες, όπως αυτές που βρήκαν οι Ali et al. άλλους τομείς όπου διακυβεύονται οι ζωές και τα μέσα διαβίωσης των ανθρώπων.

Πώς μπορούν οι επιστήμονες δεδομένων και οι προγραμματιστές τεχνητής νοημοσύνης να αποτρέψουν με τον καλύτερο τρόπο άλλες ακούσιες προκαταλήψεις από το να εισχωρήσουν στα συστήματά τους;

 Δεν εναπόκειται αποκλειστικά στους επιστήμονες δεδομένων ή σε οποιαδήποτε ομάδα ενδιαφερομένων να διασφαλίσουν ότι τα τεχνικά συστήματα ευθυγραμμίζονται με τις κοινωνικές αξίες. Αλλά οι επιστήμονες δεδομένων βρίσκονται, πράγματι, στην πρώτη γραμμή αυτής της μάχης. Ως επιστήμονας υπολογιστών ο ίδιος, μπορώ να επιβεβαιώσω την ελκυστικότητα της σκέψης ότι τα συστήματα που σχεδιάζουμε είναι «αντικειμενικά», «βέλτιστα» ή «σωστά». Το πόσο επιτυχημένη είναι η επιστήμη των υπολογιστών και η επιστήμη δεδομένων - πόσο επιρροή και πόσο ευρέως χρησιμοποιούνται - είναι και ευλογία και κατάρα. Εμείς οι τεχνολόγοι δεν έχουμε πλέον την πολυτέλεια να κρυβόμαστε πίσω από τους ανέφικτους στόχους της αντικειμενικότητας και της ορθότητας. Το βάρος είναι σε εμάς να σκεφτούμε προσεκτικά τη θέση μας στον κόσμο και να ενημερωθούμε για τις κοινωνικές και πολιτικές διαδικασίες που επηρεάζουμε. Η κοινωνία δεν μπορεί να μας επιτρέψει να κινούμαστε γρήγορα και να σπάμε τα πράγματα, πρέπει να επιβραδύνουμε και να αναλογιστούμε.

Είναι συμβολικό ότι η φιλοσοφία ήταν κάποτε το επίκεντρο όλου του επιστημονικού και κοινωνικού λόγου, μετά ήρθαν τα μαθηματικά και μετά η επιστήμη των υπολογιστών. Τώρα, με την επιστήμη των δεδομένων να βρίσκεται στο επίκεντρο, έχουμε κλείσει τον κύκλο και χρειαζόμαστε να συνδεθούμε ξανά με τις φιλοσοφικές μας ρίζες.

Μια άλλη σύσταση που κάνατε είναι να δημιουργήσετε ένα ενημερωμένο κοινό. Πώς ενημερώνουμε ένα κοινό που μπορεί να μην είναι εξοικειωμένο με την τεχνητή νοημοσύνη ή να μην κατανοεί τα προβλήματα που σχετίζονται με την προκατάληψη της τεχνητής νοημοσύνης;

Υπάρχει επιτακτική ανάγκη να εκπαιδεύονται οι μη τεχνικοί άνθρωποι σχετικά με την τεχνολογία και να εκπαιδεύονται οι τεχνικοί για τις κοινωνικές της επιπτώσεις. Η επίτευξη και των δύο αυτών στόχων θα απαιτήσει ισχυρή δέσμευση και ουσιαστική επένδυση από την πλευρά της κυβέρνησής μας. Χρειάζεται να αναπτύξουμε υλικό και εκπαιδευτικές μεθοδολογίες για όλες αυτές τις ομάδες και να βρούμε τρόπους να ενθαρρύνουμε τη συμμετοχή. Και δεν μπορούμε να αφήσουμε αυτό το έργο σε εμπορικούς φορείς. Η Ευρωπαϊκή Ένωση πρωτοπορεί, με πολλές κυβερνήσεις να παρέχουν υποστήριξη βασική εκπαίδευση AI των πολιτών της, και ενσωμάτωση προγραμμάτων σπουδών AI σε προγράμματα γυμνασίου. Εμείς στην R/AI εργαζόμαστε σε ένα μάθημα διαθέσιμο στο κοινό και ευρέως προσβάσιμο, με στόχο να δημιουργήσουμε ένα αφοσιωμένο κοινό που θα βοηθήσει να γίνει η τεχνητή νοημοσύνη αυτό που θέλουμε να είναι. Είμαστε πολύ ενθουσιασμένοι με αυτή τη δουλειά, παρακαλούμε μείνετε συντονισμένοι για περισσότερες πληροφορίες τον επόμενο μήνα.

Σας ευχαριστούμε για τις εξαιρετικές λεπτομερείς απαντήσεις, οι αναγνώστες που επιθυμούν να μάθουν περισσότερα θα πρέπει να επισκεφτούν το Κέντρο Υπεύθυνης Τεχνητής Νοημοσύνης. 

Ιδρυτικός συνεργάτης της unite.AI & μέλος της Τεχνολογικό Συμβούλιο Forbes, Ο Αντουάν είναι α μελλοντιστής που είναι παθιασμένος με το μέλλον της τεχνητής νοημοσύνης και της ρομποτικής.

Είναι επίσης ο Ιδρυτής του Securities.io, ένας ιστότοπος που εστιάζει στην επένδυση σε ανατρεπτική τεχνολογία.