στέλεχος Yaron Singer, Διευθύνων Σύμβουλος στο Robust Intelligence & Καθηγητής Επιστήμης Υπολογιστών στο Πανεπιστήμιο του Χάρβαρντ - Σειρά Συνεντεύξεων - Unite.AI
Συνδεθείτε μαζί μας

συνεντεύξεις

Yaron Singer, Διευθύνων Σύμβουλος στο Robust Intelligence & Καθηγητής Επιστήμης Υπολογιστών στο Πανεπιστήμιο του Χάρβαρντ – Σειρά Συνεντεύξεων

mm

Δημοσιευμένα

 on

Ο Yaron Singer είναι ο Διευθύνων Σύμβουλος της Ισχυρή νοημοσύνη και Καθηγητής Επιστήμης Υπολογιστών και Εφαρμοσμένων Μαθηματικών στο Χάρβαρντ. Το Yaron είναι γνωστό για τα πρωτοποριακά αποτελέσματα στη μηχανική μάθηση, τους αλγόριθμους και τη βελτιστοποίηση. Προηγουμένως, ο Yaron εργάστηκε στο Google Research και απέκτησε το διδακτορικό του από το UC Berkeley.

Τι σας τράβηξε αρχικά στον τομέα της επιστήμης των υπολογιστών και της μηχανικής μάθησης;

Το ταξίδι μου ξεκίνησε με τα μαθηματικά, τα οποία με οδήγησαν στην επιστήμη των υπολογιστών, που με οδήγησαν στον δρόμο της μηχανικής μάθησης. Τα μαθηματικά αρχικά μου τράβηξαν το ενδιαφέρον γιατί το αξιωματικό τους σύστημα μου έδωσε τη δυνατότητα να δημιουργήσω νέους κόσμους. Με την επιστήμη των υπολογιστών έμαθα για τις υπαρξιακές αποδείξεις, αλλά και τους αλγόριθμους πίσω από αυτές. Από δημιουργική άποψη, η επιστήμη των υπολογιστών είναι η χάραξη των ορίων μεταξύ του τι μπορούμε και τι δεν μπορούμε να κάνουμε.

Το ενδιαφέρον μου για τη μηχανική μάθηση είχε πάντα τις ρίζες του στο ενδιαφέρον για πραγματικά δεδομένα, σχεδόν τη φυσική πτυχή τους. Παίρνοντας πράγματα από τον πραγματικό κόσμο και μοντελοποιώντας τα για να δημιουργήσετε κάτι με νόημα. Θα μπορούσαμε κυριολεκτικά να σχεδιάσουμε έναν καλύτερο κόσμο μέσω ουσιαστικής μοντελοποίησης. Έτσι, τα μαθηματικά μου έδωσαν τη βάση για να αποδείξω πράγματα, η επιστήμη των υπολογιστών με βοηθά να δω τι μπορεί και τι δεν μπορεί να γίνει και η μηχανική μάθηση μου δίνει τη δυνατότητα να μοντελοποιήσω αυτές τις έννοιες στον κόσμο.

Μέχρι πρόσφατα ήσασταν Καθηγητής Επιστήμης Υπολογιστών και Εφαρμοσμένων Μαθηματικών στο Πανεπιστήμιο του Χάρβαρντ, ποια ήταν μερικά από τα βασικά σας σημεία από αυτήν την εμπειρία;

Το μεγαλύτερο πλεονέκτημά μου από το να είμαι μέλος ΔΕΠ στο Χάρβαρντ είναι ότι αναπτύσσει την όρεξη κάποιου να κάνει μεγάλα πράγματα. Το Χάρβαρντ έχει παραδοσιακά μια μικρή σχολή και η προσδοκία από τη σχολή θητείας είναι να αντιμετωπίσει μεγάλα προβλήματα και να δημιουργήσει νέα πεδία. Πρέπει να είσαι τολμηρός. Αυτό καταλήγει να είναι εξαιρετική προετοιμασία για την έναρξη μιας startup δημιουργίας κατηγορίας που ορίζει έναν νέο χώρο. Δεν συνιστώ απαραιτήτως να περάσετε πρώτα από τη θητεία του Χάρβαρντ — αλλά αν το επιβιώσετε, η δημιουργία μιας startup είναι ευκολότερη.

Θα μπορούσατε να περιγράψετε τη στιγμή σας «άχα» όταν συνειδητοποιήσατε ότι τα εξελιγμένα συστήματα τεχνητής νοημοσύνης είναι ευάλωτα σε κακά δεδομένα, με ορισμένες δυνητικά εκτεταμένες επιπτώσεις;

Όταν ήμουν μεταπτυχιακός φοιτητής στο UC Berkeley, πήρα λίγο χρόνο για να κάνω μια startup που κατασκεύαζε μοντέλα μηχανικής μάθησης για μάρκετινγκ στα κοινωνικά δίκτυα. Αυτό ήταν το 2010. Είχαμε τεράστιο όγκο δεδομένων από τα μέσα κοινωνικής δικτύωσης και κωδικοποιήσαμε όλα τα μοντέλα από την αρχή. Οι οικονομικές επιπτώσεις για τους λιανοπωλητές ήταν αρκετά σημαντικές, επομένως παρακολουθήσαμε στενά την απόδοση των μοντέλων. Δεδομένου ότι χρησιμοποιήσαμε δεδομένα από τα μέσα κοινωνικής δικτύωσης, υπήρχαν πολλά σφάλματα στην εισαγωγή, καθώς και drift. Είδαμε ότι πολύ μικρά σφάλματα οδήγησαν σε μεγάλες αλλαγές στην παραγωγή του μοντέλου και θα μπορούσαν να οδηγήσουν σε άσχημα οικονομικά αποτελέσματα για τους λιανοπωλητές που χρησιμοποιούν το προϊόν.

Όταν πέρασα στην εργασία στο Google+ (για όσους από εμάς θυμόμαστε), είδα ακριβώς τα ίδια εφέ. Πιο εντυπωσιακά, σε συστήματα όπως το AdWords που έκαναν προβλέψεις σχετικά με την πιθανότητα οι άνθρωποι να κάνουν κλικ σε μια διαφήμιση για λέξεις-κλειδιά, παρατηρήσαμε ότι μικρά σφάλματα στην εισαγωγή στο μοντέλο οδηγούν σε πολύ κακές προβλέψεις. Όταν βλέπετε αυτό το πρόβλημα σε κλίμακα Google, συνειδητοποιείτε ότι το πρόβλημα είναι καθολικό.

Αυτές οι εμπειρίες διαμόρφωσαν σε μεγάλο βαθμό την ερευνητική μου εστίαση και πέρασα το χρόνο μου στο Χάρβαρντ ερευνώντας γιατί τα μοντέλα τεχνητής νοημοσύνης κάνουν λάθη και, κυρίως, πώς να σχεδιάσω αλγόριθμους που μπορούν να αποτρέψουν τα μοντέλα από το να κάνουν λάθη. Αυτό, φυσικά, οδήγησε σε περισσότερες «αχα» στιγμές και, τελικά, στη δημιουργία του Robust Intelligence.

Θα μπορούσατε να μοιραστείτε την ιστορία γένεσης πίσω από το Robust Intelligence;

Το Robust Intelligence ξεκίνησε με έρευνα σχετικά με αυτό που αρχικά ήταν ένα θεωρητικό πρόβλημα: ποιες είναι οι εγγυήσεις που μπορούμε να έχουμε για αποφάσεις που λαμβάνονται χρησιμοποιώντας μοντέλα τεχνητής νοημοσύνης. Ο Kojin ήταν φοιτητής στο Χάρβαρντ και δουλέψαμε μαζί, γράφοντας αρχικά ερευνητικές εργασίες. Έτσι, ξεκινά με τη συγγραφή εργασιών που περιγράφουν τι είναι θεμελιωδώς δυνατό και αδύνατο, θεωρητικά. Αυτά τα αποτελέσματα συνέχισαν αργότερα σε ένα πρόγραμμα για το σχεδιασμό αλγορίθμων και μοντέλων που είναι ανθεκτικά σε αστοχίες τεχνητής νοημοσύνης. Στη συνέχεια κατασκευάζουμε συστήματα που μπορούν να εκτελέσουν αυτούς τους αλγόριθμους στην πράξη. Μετά από αυτό, η ίδρυση μιας εταιρείας όπου οι οργανισμοί θα μπορούσαν να χρησιμοποιήσουν ένα σύστημα όπως αυτό ήταν ένα φυσικό επόμενο βήμα.

Πολλά από τα ζητήματα που αντιμετωπίζει το Robust Intelligence είναι σιωπηλά σφάλματα, ποια είναι αυτά και τι τα κάνει τόσο επικίνδυνα;

Πριν δώσουμε έναν τεχνικό ορισμό των σιωπηλών σφαλμάτων, αξίζει να κάνουμε ένα βήμα πίσω και να κατανοήσουμε γιατί πρέπει να μας ενδιαφέρει η τεχνητή νοημοσύνη να κάνει λάθη εξαρχής. Ο λόγος που μας ενδιαφέρει να κάνουν λάθη τα μοντέλα AI είναι οι συνέπειες αυτών των λαθών. Ο κόσμος μας χρησιμοποιεί την τεχνητή νοημοσύνη για να αυτοματοποιήσει κρίσιμες αποφάσεις: ποιος παίρνει επιχειρηματικό δάνειο και με ποιο επιτόκιο, ποιος λαμβάνει ασφαλιστική κάλυψη υγείας και με ποιο επιτόκιο, ποιες γειτονιές πρέπει να περιπολεί η αστυνομία, ποιος είναι πιο πιθανό να είναι ο κορυφαίος υποψήφιος για μια θέση εργασίας, πώς πρέπει να οργανώσουμε την ασφάλεια του αεροδρομίου και ούτω καθεξής. Το γεγονός ότι τα μοντέλα τεχνητής νοημοσύνης είναι εξαιρετικά επιρρεπή σε σφάλματα σημαίνει ότι κατά την αυτοματοποίηση αυτών των κρίσιμων αποφάσεων κληρονομούμε μεγάλο κίνδυνο. Στη Robust Intelligence αυτό το ονομάζουμε "AI Risk" και η αποστολή μας στην εταιρεία είναι να εξαλείψουμε τον κίνδυνο AI.

Τα σιωπηλά σφάλματα είναι σφάλματα μοντέλων τεχνητής νοημοσύνης όπου το μοντέλο τεχνητής νοημοσύνης λαμβάνει δεδομένα και παράγει μια πρόβλεψη ή απόφαση που είναι λανθασμένη ή προκατειλημμένη ως έξοδο. Έτσι, επιφανειακά, όλα στο σύστημα φαίνονται εντάξει, καθώς το μοντέλο AI κάνει αυτό που υποτίθεται ότι κάνει από λειτουργική άποψη. Όμως η πρόβλεψη ή η απόφαση είναι λανθασμένη. Αυτά τα σφάλματα είναι σιωπηλά επειδή το σύστημα δεν γνωρίζει ότι υπάρχει σφάλμα. Αυτό μπορεί να είναι πολύ χειρότερο από την περίπτωση στην οποία ένα μοντέλο τεχνητής νοημοσύνης δεν παράγει αποτελέσματα, επειδή μπορεί να χρειαστεί πολύς χρόνος για να συνειδητοποιήσουν οι οργανισμοί ότι το σύστημα τεχνητής νοημοσύνης τους είναι ελαττωματικό. Στη συνέχεια, ο κίνδυνος τεχνητής νοημοσύνης μετατρέπεται σε αποτυχίες τεχνητής νοημοσύνης που μπορεί να έχουν τρομερές συνέπειες.

Η Robust Intelligence έχει σχεδιάσει ουσιαστικά ένα τείχος προστασίας AI, μια ιδέα που παλαιότερα θεωρούνταν αδύνατη. Γιατί είναι αυτή μια τέτοια τεχνική πρόκληση;

Ένας λόγος που το Τείχος προστασίας AI είναι μια τέτοια πρόκληση είναι επειδή έρχεται σε αντίθεση με το παράδειγμα που είχε η κοινότητα ML. Το προηγούμενο παράδειγμα της κοινότητας ML ήταν ότι για να εξαλειφθούν τα σφάλματα, χρειάζεται να τροφοδοτηθούν περισσότερα δεδομένα, συμπεριλαμβανομένων των κακών δεδομένων σε μοντέλα. Κάνοντας αυτό, τα μοντέλα θα εκπαιδεύσουν τον εαυτό τους και θα μάθουν πώς να διορθώνουν μόνοι τους τα λάθη. Το πρόβλημα με αυτήν την προσέγγιση είναι ότι προκαλεί δραματική πτώση της ακρίβειας του μοντέλου. Τα πιο γνωστά αποτελέσματα για εικόνες, για παράδειγμα, προκαλούν πτώση της ακρίβειας του μοντέλου AI από 98.5% σε περίπου 37%.

Το τείχος προστασίας AI προσφέρει μια διαφορετική λύση. Αποσυνδέουμε το πρόβλημα του εντοπισμού ενός σφάλματος από το ρόλο της δημιουργίας μιας πρόβλεψης, που σημαίνει ότι το τείχος προστασίας μπορεί να επικεντρωθεί σε μια συγκεκριμένη εργασία: να καθορίσει εάν ένα σημείο δεδομένων θα παράγει μια εσφαλμένη πρόβλεψη.

Αυτό ήταν από μόνο του μια πρόκληση λόγω της δυσκολίας να δώσει κανείς μια πρόβλεψη σε ένα μόνο σημείο δεδομένων. Υπάρχουν πολλοί λόγοι για τους οποίους τα μοντέλα κάνουν λάθη, επομένως η κατασκευή μιας τεχνολογίας που να μπορεί να προβλέψει αυτά τα σφάλματα δεν ήταν εύκολη υπόθεση. Είμαστε πολύ τυχεροί που έχουμε τους μηχανικούς που κάνουμε.

Πώς μπορεί το σύστημα να βοηθήσει στην πρόληψη της μεροληψίας AI;

Η μεροληψία μοντέλου προέρχεται από μια ασυμφωνία μεταξύ των δεδομένων στα οποία εκπαιδεύτηκε το μοντέλο και των δεδομένων που χρησιμοποιεί για να κάνει προβλέψεις. Επιστρέφοντας στον κίνδυνο τεχνητής νοημοσύνης, η μεροληψία είναι ένα σημαντικό ζήτημα που αποδίδεται στα σιωπηλά σφάλματα. Για παράδειγμα, αυτό είναι συχνά ένα ζήτημα με υποεκπροσωπούμενους πληθυσμούς. Ένα μοντέλο μπορεί να έχει προκατάληψη επειδή έχει δει λιγότερα δεδομένα από αυτόν τον πληθυσμό, γεγονός που θα επηρεάσει δραματικά την απόδοση αυτού του μοντέλου και την ακρίβεια των προβλέψεών του. Το τείχος προστασίας AI μπορεί να ειδοποιήσει τους οργανισμούς για αυτές τις αποκλίσεις δεδομένων και να βοηθήσει το μοντέλο να λάβει σωστές αποφάσεις.

Ποιοι είναι μερικοί από τους άλλους κινδύνους για τους οργανισμούς που ένα τείχος προστασίας AI βοηθά στην πρόληψη;

Οποιαδήποτε εταιρεία χρησιμοποιεί τεχνητή νοημοσύνη για να αυτοματοποιήσει αποφάσεις, ειδικά κρίσιμες αποφάσεις, εισάγει αυτόματα τον κίνδυνο. Τα κακά δεδομένα θα μπορούσαν να είναι τόσο ασήμαντα όσο η εισαγωγή μηδενικού αντί ενός και εξακολουθούν να έχουν σημαντικές συνέπειες. Είτε ο κίνδυνος είναι λανθασμένες ιατρικές προβλέψεις είτε ψευδείς προβλέψεις για δανεισμό, το Τείχος προστασίας AI βοηθά τους οργανισμούς να αποτρέψουν εντελώς τον κίνδυνο.

Υπάρχει κάτι άλλο που θα θέλατε να μοιραστείτε σχετικά με το Robust Intelligence;

Το Robust Intelligence αναπτύσσεται γρήγορα και έχουμε πολλούς σπουδαίους υποψηφίους που υποβάλλουν αίτηση για θέσεις. Αλλά κάτι που θέλω πραγματικά να τονίσω για τους ανθρώπους που σκέφτονται να υποβάλουν αίτηση είναι ότι το πιο σημαντικό προσόν που αναζητούμε στους υποψηφίους είναι το πάθος τους για την αποστολή. Γνωρίζουμε πολλούς υποψηφίους που είναι δυνατοί τεχνικά, επομένως είναι πραγματικά να καταλάβουμε εάν είναι πραγματικά παθιασμένοι με την εξάλειψη του κινδύνου τεχνητής νοημοσύνης για να γίνει ο κόσμος πιο ασφαλής και καλύτερος.

Στον κόσμο προς τον οποίο οδεύουμε, πολλές αποφάσεις που λαμβάνονται αυτή τη στιγμή από τους ανθρώπους θα αυτοματοποιηθούν. Είτε μας αρέσει είτε όχι, αυτό είναι γεγονός. Δεδομένου αυτού, όλοι εμείς στη Robust Intelligence θέλουμε οι αυτοματοποιημένες αποφάσεις να λαμβάνονται υπεύθυνα. Έτσι, όποιος είναι ενθουσιασμένος με το να έχει αντίκτυπο, που κατανοεί τον τρόπο με τον οποίο αυτό μπορεί να επηρεάσει τις ζωές των ανθρώπων, είναι ένας υποψήφιος που αναζητούμε για να ενταχθεί στο Robust Intelligence. Αναζητούμε αυτό το πάθος. Αναζητούμε τους ανθρώπους που θα δημιουργήσουν αυτή την τεχνολογία που θα χρησιμοποιήσει όλος ο κόσμος.

Ευχαριστώ για την υπέροχη συνέντευξη, μου άρεσε που έμαθα για τις απόψεις σας σχετικά με την πρόληψη της μεροληψίας AI και την ανάγκη για ένα τείχος προστασίας AI, οι αναγνώστες που επιθυμούν να μάθουν περισσότερα θα πρέπει να το επισκεφτούν Ισχυρή νοημοσύνη.

Ιδρυτικός συνεργάτης της unite.AI & μέλος της Τεχνολογικό Συμβούλιο Forbes, Ο Αντουάν είναι α μελλοντιστής που είναι παθιασμένος με το μέλλον της τεχνητής νοημοσύνης και της ρομποτικής.

Είναι επίσης ο Ιδρυτής του Securities.io, ένας ιστότοπος που εστιάζει στην επένδυση σε ανατρεπτική τεχνολογία.