Connect with us

Yotam Oren, CEO & Cofounder of Mona Labs – Interview Series

Συνεντεύξεις

Yotam Oren, CEO & Cofounder of Mona Labs – Interview Series

mm

Ο Yotam Oren, είναι ο CEO & Cofounder της Mona Labs, μια πλατφόρμα που επιτρέπει στις επιχειρήσεις να μετατρέψουν τις πρωτοβουλίες του AI από πειραματικά εργαστήρια σε κλιμακωτές επιχειρηματικές λειτουργίες, κατανοώντας πραγματικά πώς συμπεριφέρονται τα μοντέλα ML στις πραγματικές επιχειρηματικές διαδικασίες και εφαρμογές.

Η Mona αναλύει αυτόματα τη συμπεριφορά των μοντέλων μηχανικής μάθησης σας σε προστατευμένα τμήματα δεδομένων και στο контέκστ των επιχειρηματικών λειτουργιών, για να ανιχνεύσει πιθανή προκατάληψη του AI. Η Mona προσφέρει τη δυνατότητα να δημιουργήσετε πλήρεις αναφορές ισότητας που ανταποκρίνονται στα πρότυπα και τις κανονιστικές απαιτήσεις της βιομηχανίας, και να προσφέρετε εμπιστοσύνη ότι η εφαρμογή του AI είναι συμμορφωμένη και ελεύθερη από jede προκατάληψη.

Τι σας έκανε να ενδιαφερθείτε αρχικά για την επιστήμη των υπολογιστών;

Η επιστήμη των υπολογιστών είναι ένας δημοφιλής职业ικός δρόμος στην οικογένειά μου, οπότε ήταν πάντα στο πίσω μέρος του μυαλού μου ως ένα εφικτό επιλογή. Φυσικά, ο ισραηλινός πολιτισμός είναι πολύ προ-τεχ. Γελείαζουμε τους καινοτόμους τεχνολόγους και είχα πάντα την αντίληψη ότι η CS θα μου προσφέρει μια πίστα για ανάπτυξη και επιτυχία.

Παρά το ότι, αυτό έγινε προσωπική μου αγάπη μόνο όταν έφτασα στην ηλικία του πανεπιστημίου. Δεν ήμουν ένα από αυτά τα παιδιά που άρχισαν να προγραμματίζουν στο γυμνάσιο. Στην νεότητά μου, ήμουν πολύ απασχολημένος με το μπάσκετ για να προσεξω τους υπολογιστές. Μετά το λύκειο, πέρασα σχεδόν 5 χρόνια στις ένοπλες δυνάμεις, σε επιχειρησιακούς/μαχητικούς ηγετικούς ρόλους. Έτσι, σε κάποιο τρόπο, πραγματικά άρχισα να μαθαίνω για την επιστήμη των υπολογιστών μόνο όταν έπρεπε να επιλέξω einen ακαδημαϊκό κλάδο στο πανεπιστήμιο. Τι με κατέκτησε αμέσως ήταν ότι η επιστήμη των υπολογιστών συνδύαζε την επίλυση προβλημάτων και τη μάθηση μιας γλώσσας (ή γλωσσών). Δύο πράγματα στα οποία ήμουν ιδιαίτερα ενδιαφερμένος. Από τότε, ήμουν εθισμένος.

Από το 2006 έως το 2008 εργαστήκατε στην χαρτογράφηση και πλοήγηση για μια μικρή εταιρεία, ποια ήταν κάποια από τα βασικά σας συμπεράσματα από αυτή την εποχή;

Ο ρόλος μου στην Telmap ήταν η κατασκευή ενός μηχανισμού αναζήτησης πάνω σε χάρτες και δεδομένα τοποθεσίας.

Αυτές ήταν οι πολύ πρώτες μέρες του “μεγάλου δεδομένου” στην επιχείρηση. Δεν το ονομάζαμε ακόμη così, αλλά αποκτούσαμε τεράστια σύνολα δεδομένων και προσπαθούσαμε να βγάλουμε τις πιο σημαντικές και σχετικές ερμηνείες για να τις δείξουμε στους τελικούς χρήστες.

Ένα από τα εξαιρετικά συμπεράσματα που έβγαλα ήταν ότι οι εταιρείες (συμπεριλαμβανομένης και της δικής μας) χρησιμοποιούσαν τόσο λίγο από τα δεδομένα τους (αλλά και δημόσια διαθέσιμα εξωτερικά δεδομένα). Υπήρχε τόσο πολύ δυναμικό για νέες ερμηνείες, καλύτερες διαδικασίες και εμπειρίες.

Το άλλο συμπέρασμα ήταν ότι η δυνατότητα να αποκτήσουμε περισσότερα από τα δεδομένα μας εξαρτάτο, φυσικά, από το να έχουμε καλύτερες αρχιτεκτονικές, καλύτερη υποδομή και così.

Μπορείτε να μοιραστείτε την ιστορία της Mona Labs;

Οι τρεις μας, συνιδρυτές, έχουμε γύρω από προϊόντα δεδομένων καθ’ όλη τη διάρκεια της καριέρας μας.

Ο Nemo, ο τεχνικός διευθυντής, είναι ο κολεγιακός φίλος και συμμαθητής μου, και ένας από τους πρώτους υπαλλήλους της Google Tel Aviv. Ξεκίνησε ένα προϊόν εκεί που ονομάζεται Google Trends, το οποίο είχε πολλές προηγμένες αναλύσεις και μηχανική μάθηση βασισμένες σε δεδομένα μηχανής αναζήτησης. Ο Itai, ο άλλος συνιδρυτής και προϊστάμενος προϊόντων, ήταν στην ομάδα του Nemo στη Google (και τον γνώρισα μέσω του Nemo). Οι δύο τους ήταν πάντα απογοητευμένοι που τα AI-κίνητα συστήματα παρέμεναν ανεξέλεγκτα μετά την αρχική ανάπτυξη και δοκιμή. Παρά τη δυσκολία να δοκιμαστούν σωστά αυτά τα συστήματα πριν από την παραγωγή, οι ομάδες δεν ήξεραν πόσο καλά λειτουργούσαν τα προγνωστικά μοντέλα τους με την πάροδο του χρόνου. Επιπλέον, φαινόταν ότι η μόνη φορά που θα ακούγαν κάποια ανατροφοδότηση για τα συστήματα AI ήταν όταν τα πράγματα πήγαιναν κακό και η ομάδα ανάπτυξης καλούνταν για μια “πυροσβεστική άσκηση” για να διορθώσουν καταστροφικά προβλήματα.

Την ίδια περίπου εποχή, ήμουν συμβουλευτής στη McKinsey & Co, και ένα από τα μεγαλύτερα εμπόδια που είδα στα προγράμματα AI και Big Data να κλιμακώνονται σε μεγάλες επιχειρήσεις ήταν η έλλειψη εμπιστοσύνης που είχαν οι επιχειρηματικοί μέτοχοι σε αυτά τα προγράμματα.

Το κοινό νήμα εδώ έγινε σαφές για τον Nemo, τον Itai και εμένα στις συζητήσεις. Η βιομηχανία χρειαζόταν την υποδομή για να παρακολουθήσει τα συστήματα AI/ML στην παραγωγή. Είχαμε την όραση να προσφέρουμε αυτή τη διαύγεια για να αυξήσουμε την εμπιστοσύνη των επιχειρηματικών μετόχων και να επιτρέψουμε στις ομάδες AI να έχουν πάντα ένα χέρι στο πώς λειτουργούν τα συστήματα τους και να επαναλάβουν πιο αποτελεσματικά.

Και così ιδρύθηκε η Mona.

Ποια είναι κάποια από τα τρέχοντα προβλήματα με την έλλειψη διαφάνειας του AI;

Σε πολλές βιομηχανίες, οι οργανισμοί έχουν ήδη δαπανήσει δεκάδες εκατομμύρια δολάρια στα προγράμματα AI τους, και έχουν δει κάποια αρχική επιτυχία στο εργαστήριο και σε μικρές κλίμακες αναπτύξεων. Αλλά η κλιμάκωση, η επίτευξη ευρείας υιοθέτησης και η ανάγκη να κάνουν την επιχείρηση να βασιστεί πραγματικά στο AI έχει sido ένα τεράστιο πρόκληση για σχεδόν όλους.

Γιατί συμβαίνει αυτό; Ξεκινά με το γεγονός ότι η μεγάλη έρευνα δεν μεταφράζεται αυτόματα σε μεγάλα προϊόντα (Ένας πελάτης μας είπε, “Τα μοντέλα ML είναι σαν αυτοκίνητα, τη στιγμή που βγάζουν από το εργαστήριο, χάνουν 20% της αξίας τους”). Μεγάλα προϊόντα έχουν υποστηρικτικά συστήματα. Υπάρχουν εργαλεία και διαδικασίες για να διασφαλίσουν ότι η ποιότητα διατηρείται με την πάροδο του χρόνου, και ότι τα προβλήματα αναγνωρίζονται νωρίς και αντιμετωπίζονται αποτελεσματικά. Μεγάλα προϊόντα έχουν επίσης μια συνεχής ανατροφοδότηση, έχουν einen κύκλο βελτίωσης και einen δρόμο. Συνεπώς, μεγάλα προϊόντα απαιτούν βαθιά και συνεχής διαφάνεια.

Όταν υπάρχει έλλειψη διαφάνειας, καταλήγετε με:

  • Προβλήματα που παραμένουν κρυφά για κάποιο χρόνο και μετά εκρήγνυνται στην επιφάνεια προκαλώντας “πυροσβεστικές ασκήσεις”
  • Μακρές και χειροκίνητες έρευνες και μετριάσεις
  • Ένα πρόγραμμα AI που δεν εμπιστεύεται οι επιχειρηματικοί χρήστες και μέτοχοι και τελικά αποτυγχάνει να κλιμακωθεί

Ποια είναι κάποια από τις προκλήσεις πίσω από την κίνηση να κάνετε τα προγνωστικά μοντέλα διαφανή και αξιόπιστα;

Η διαφάνεια είναι ένας σημαντικός παράγοντας για την επίτευξη εμπιστοσύνης, φυσικά. Η διαφάνεια μπορεί να έρθει σε πολλές μορφές. Υπάρχει η διαφάνεια της単ικής πρόβλεψης που μπορεί να περιλαμβάνει την εμφάνιση του επιπέδου εμπιστοσύνης στον χρήστη, ή την παροχή μιας εξήγησης/λογικής για την πρόβλεψη. Η διαφάνεια της μονής πρόβλεψης στοχεύει κυρίως στο να βοηθήσει τον χρήστη να αισθανθεί άνετα με την πρόβλεψη. Και τότε, υπάρχει η γενική διαφάνεια που μπορεί να περιλαμβάνει πληροφορίες για την προγνωστική ακρίβεια, απροσδόκητα αποτελέσματα και πιθανά προβλήματα. Η γενική διαφάνεια χρειάζεται από την ομάδα AI.

Το πιο προκλητικό μέρος της γενικής διαφάνειας είναι η ανίχνευση προβλημάτων νωρίς, η ειδοποίηση του σχετικού μέλους της ομάδας ώστε να μπορέσουν να λάβουν διορθωτικά μέτρα πριν συμβούν καταστροφές.

Γιατί είναι προκλητικό να ανιχνεύσετε προβλήματα νωρίς:

  • Τα προβλήματα συχνά αρχίζουν μικρά και βράζουν, πριν τελικά εκραγούν στην επιφάνεια.
  • Τα προβλήματα συχνά αρχίζουν λόγω ανεξέλεγκτων ή εξωτερικών παραγόντων, όπως πηγές δεδομένων.
  • Υπάρχουν πολλές τρόποι για να “διαχωρίσετε τον κόσμο” και η εξαντλητική αναζήτηση προβλημάτων σε μικρές τσέπες μπορεί να οδηγήσει σε πολύ θόρυβο (κόπωση ειδοποιήσεων), τουλάχιστον όταν αυτό γίνεται με μια αφελή προσέγγιση.

Μια άλλη προκλητική πλευρά της παροχής διαφάνειας είναι η τεράστια ποικιλία των περιπτώσεων χρήσης του AI. Αυτό κάνει μια προσέγγιση που ταιριάζει σε όλα σχεδόν αδύνατη. Κάθε περίπτωση χρήσης του AI μπορεί να περιλαμβάνει διαφορετικές δομές δεδομένων, διαφορετικούς επιχειρηματικούς κύκλους, διαφορετικά μέτρα επιτυχίας και συχνά διαφορετικές τεχνικές προσεγγίσεις και ακόμη και στοίβες.

Έτσι, είναι μια τεράστια πρόκληση, αλλά η διαφάνεια είναι τόσο θεμελιώδους σημασίας για την επιτυχία των προγραμμάτων AI, οπότε πρέπει να το κάνετε.

Μπορείτε να μοιραστείτε κάποια λεπτομέρειες για τις λύσεις για τα μοντέλα NLU / NLP & Chatbots;

Το συντακτικό AI είναι ένα από τα βασικά垂ICALS της Mona. Είμαστε υπερήφανοι που υποστηρίζουμε καινοτόμες εταιρείες με eine ευρεία γκάμα περιπτώσεων χρήσης συντακτικού AI, συμπεριλαμβανομένων μοντέλων γλώσσας, chatbots και περισσότερων.

Ένας κοινός παράγοντας σε όλες τις περιπτώσεις χρήσης είναι ότι τα μοντέλα λειτουργούν κοντά (και đôi vezes ορατά) στους πελάτες, οπότε τα рисκια της ασυνέπειας της απόδοσης ή της κακής συμπεριφοράς είναι υψηλότερα. Γίνεται τόσο σημαντικό για τις ομάδες συντακτικού AI να κατανοήσουν τη συμπεριφορά του συστήματος σε ένα λεπτομερές επίπεδο, το οποίο είναι ένα πεδίο ισχύος της λύσης παρακολούθησης της Mona.

Τι κάνει η λύση της Mona που είναι khá μοναδικό είναι η συστηματική διήθηση ομάδων συζητήσεων και η ανίχνευση τσεπών στα οποία τα μοντέλα (ή τα bots) συμπεριφέρονται κακό. Αυτό επιτρέπει στις ομάδες συντακτικού AI να αναγνωρίσουν προβλήματα νωρίς και πριν οι πελάτες τα παρατηρήσουν. Αυτή η ικανότητα είναι ένας κρίσιμος οδηγός αποφάσεων για τις ομάδες συντακτικού AI όταν επιλέγουν λύσεις παρακολούθησης.

Για να συνοψίσω, η Mona προσφέρει μια ολοκληρωμένη λύση για την παρακολούθηση του συντακτικού AI. Ξεκινά με την διασφάλιση ότι υπάρχει μια seule πηγή πληροφοριών για τη συμπεριφορά του συστήματος με την πάροδο του χρόνου, και συνεχίζει με την συνεχής παρακολούθηση των δείκτων απόδοσης, και τις προδραστικές ερμηνείες για τις τσέπες της κακής συμπεριφοράς – επιτρέποντας στις ομάδες να λάβουν προληπτικά, αποτελεσματικά διορθωτικά μέτρα.

Μπορείτε να προσφέρετε κάποια λεπτομέρειες για τον κινητήρα ερμηνειών της Mona;

Βέβαια. Ας αρχίσουμε με την мотивασία. Ο στόχος του κινητήρα ερμηνειών είναι να επιφέρουν ανωμαλίες στους χρήστες, με ακριβώς την σωστή ποσότητα контекστοποιημένης πληροφοριών και χωρίς να δημιουργούν θόρυβο ή να οδηγούν σε κόπωση ειδοποιήσεων.

Ο κινητήρας ερμηνειών είναι μια μοναδική αναλυτική ροή εργασίας. Σε αυτή τη ροή εργασίας, ο κινητήρας αναζητά ανωμαλίες σε όλα τα τμήματα δεδομένων, επιτρέποντας την πρώιμη ανίχνευση προβλημάτων όταν είναι ακόμη “μικρά” και πριν επηρεάσουν το σύνολο του συνόλου δεδομένων και τις επιχειρηματικές KPI. Στη συνέχεια, χρησιμοποιεί einen ιδιοκτητικό αλγόριθμο για να ανιχνεύσει τις ρίζες των ανωμαλιών και να διασφαλίσει ότι κάθε ανωμαλία ειδοποιείται μόνο μια φορά, ώστε να αποφευχθεί ο θόρυβος. Οι τύποι ανωμαλιών που υποστηρίζονται περιλαμβάνουν: ανωμαλίες χρόνου, μετατοπίσεις, εκκεντρικά, υποβάθμιση μοντέλου και περισσότερα.

Ο κινητήρας ερμηνειών είναι εξαιρετικά προσαρμόσιμος μέσω της διεπαφής ρύθμισης της Mona. Η ρυθμιστική δυνατότητα του κινητήρα κάνει τη Mona τη πιο ευέλικτη λύση στην αγορά, καλύπτοντας eine ευρεία γκάμα περιπτώσεων χρήσης (π.χ. batch και ροής, με/χωρίς επιχειρηματική ανατροφοδότηση / ground truth, σε διαφορετικές εκδόσεις μοντέλων ή μεταξύ εκπαίδευσης και ερμηνείας, και περισσότερα).

Τέλος, αυτός ο κινητήρας ερμηνειών υποστηρίζεται από einen πίνακα ερμηνειών, στον οποίο οι ερμηνείες μπορούν να προβληθούν, και einen σετ εργαλείων έρευνας για να ermögουν την ανάλυση ρίζας και την περαιτέρω εξέταση της контекστοποιημένης πληροφοριών. Ο κινητήρας ερμηνειών είναι επίσης πλήρως ολοκληρωμένος με einen κινητήρα ειδοποιήσεων που επιτρέπει την τροφοδοσία ερμηνειών στους δικούς σας χώρους εργασίας, συμπεριλαμβανομένων email, πλατφόρμων συνεργασίας και così.

Στις 31 Ιανουαρίου, η Mona ανακοίνωσε τη νέα της λύση για την αιτιότητα του AI, μπορέτε να μοιραστείτε μαζί μας λεπτομέρειες για αυτή τη λειτουργία και γιατί έχει σημασία;

Η αιτιότητα του AI είναι για να διασφαλίσετε ότι οι αλγόριθμοι και τα συστήματα AI γενικά λαμβάνουν αμερόληπτες και ισότιμες αποφάσεις. Η αντιμετώπιση και η πρόληψη των προκαταλήψεων στα συστήματα AI είναι κρίσιμη, καθώς μπορούν να οδηγήσουν σε σημαντικές πραγματικές συνέπειες. Με την αυξανόμενη προέμιο του AI, η επίδραση στη ζωή των ανθρώπων θα είναι ορατή σε περισσότερες και περισσότερες περιοχές, συμπεριλαμβανομένης της αυτοματοποίησης της οδήγησης, της ανίχνευσης ασθενειών με μεγαλύτερη ακρίβεια, της βελτίωσης της κατανόησής μας για τον κόσμο, και ακόμη και της δημιουργίας τέχνης. Αν δεν μπορούμε να εμπιστευθούμε ότι είναι δίκαιο και αμερόληπτο, πώς θα επιτρέψουμε να συνεχίσει να εξαπλώνεται;

Μια από τις основικές αιτίες των προκαταλήψεων στο AI είναι απλά η ικανότητα των δεδομένων εκπαίδευσης να αντιπροσωπεύουν τον πραγματικό κόσμο πλήρως. Αυτό μπορεί να οφείλεται σε ιστορική διάκριση, υπο-αντιπροσώπευση ορισμένων ομάδων ή ακόμη και ενδεχόμενη χειραγώγηση δεδομένων. Για παράδειγμα, ένα σύστημα αναγνώρισης προσώπου που εκπαιδεύτηκε σε κυρίως ανοιχτόχρωμους ανθρώπους είναι πιθανό να έχει υψηλότερο ποσοστό λάθους στην αναγνώριση ατόμων με σκουρόχρωμους τόνους. Παρόμοια, ένα μοντέλο γλώσσας που εκπαιδεύτηκε σε δεδομένα κειμένου από một στενό σύνολο πηγών μπορεί να αναπτύξει προκαταλήψεις αν τα δεδομένα είναι προκατειλημμένα προς ορισμένες απόψεις, σε θέματα όπως η θρησκεία, ο πολιτισμός και così.

Η λύση αιτιότητας της Mona δίνει στις ομάδες AI και επιχειρήσεις την εμπιστοσύνη ότι το AI τους είναι ελεύθερο από προκαταλήψεις. Σε ρυθμιζόμενους τομείς, η λύση της Mona μπορεί να προετοιμάσει τις ομάδες για την ετοιμότητα συμμόρφωσης.

Η λύση αιτιότητας της Mona είναι đặc biệtη επειδή βρίσκεται στη πλατφόρμα της Mona – ένα γέφυρα μεταξύ δεδομένων AI και μοντέλων και των πραγματικών επιπτώσεων τους στην παραγωγή. Η Mona εξετάζει όλα τα μέρη της επιχειρηματικής διαδικασίας που το μοντέλο AI υπηρετεί στην παραγωγή, για να συσχετίσει μεταξύ δεδομένων εκπαίδευσης, συμπεριφοράς μοντέλου και πραγματικών αποτελεσμάτων στον κόσμο για να προσφέρει την πιο ολοκληρωμένη αξιολόγηση της αιτιότητας.

Δεύτερον, έχει einen μοναδικό αναλυτικό κινητήρα που επιτρέπει την ευέλικτη διαχωριστική των δεδομένων για τον έλεγχο των σχετικών παραμέτρων. Αυτό επιτρέπει ακριβείς αξιολογήσεις συσχετίσεων στην σωστή контέκστ, αποφεύγοντας το парадόξο Simpson και παρέχοντας einen βαθύ πραγματικό “σκόρ προκατάληψης” για κάθε μέτρο απόδοσης και σε κάθε προστατευμένη ιδιότητα.

Συνεπώς, συνολικά θα έλεγα ότι η Mona είναι ένα θεμελιώδες στοιχείο για τις ομάδες που χρειάζεται να χτίσουν και να κλιμακώσουν υπεύθυνο AI.

Τι είναι η όρασή σας για το μέλλον του AI;

Αυτή είναι μια μεγάλη ερώτηση.

Νομίζω ότι είναι εύκολο να προβλέψετε ότι το AI θα συνεχίσει να αυξάνεται σε χρήση και επίδραση σε διάφορους βιομηχανικούς τομείς και πτυχές της ζωής των ανθρώπων. Ωστόσο, είναι δύσκολο να ληφθεί σοβαρά μια όραση που είναι λεπτομερής και που προσπαθεί να καλύψει όλες τις περιπτώσεις χρήσης και τις επιπτώσεις του AI στο μέλλον. Διότι κανείς δεν ξέρει πραγματικά достаточно για να ζωγραφίσει αυτό το πορτρέτο αξιοπιστίας.

Αυτό που ξέρουμε βέβαια είναι ότι το AI θα βρίσκεται στα χέρια περισσότερων ανθρώπων και θα υπηρετεί περισσότερους σκοπούς. Η ανάγκη για διακυβέρνηση και διαφάνεια θα αυξηθεί σημαντικά.

Πραγματική ορατότητα στο AI και πώς λειτουργεί θα παίξει δύο πρωταρχικούς ρόλους. Πρώτον, θα βοηθήσει να εγκαταστήσει εμπιστοσύνη στους ανθρώπους και να ανυψώσει τα εμπόδια αντίστασης για ταχύτερη υιοθέτηση. Δεύτερον, θα βοηθήσει όποιον λειτουργεί το AI να διασφαλίσει ότι δεν βγάζει από τον έλεγχο.

Ευχαριστώ για τη μεγάλη συνέντευξη, οι αναγνώστες που επιθυμούν να μάθουν περισσότερα πρέπει να επισκεφθούν Mona Labs.

Ο Antoine είναι ένας οραματιστής ηγέτης και συνιδρυτής του Unite.AI, οδηγείται από μια αμετάβλητη страсть για το σχήμα και την προώθηση του μέλλοντος του AI και της ρομποτικής. Ένας σειριακός επιχειρηματίας, πιστεύει ότι το AI θα είναι τόσο διαταρακτικό για την κοινωνία όσο η ηλεκτρική ενέργεια, και συχνά πιάνεται να μιλάει για το δυναμικό των διαταρακτικών τεχνολογιών και του AGI.

Ως futurist, είναι αφοσιωμένος στο να εξερευνήσει πώς αυτές οι καινοτομίες θα σχήματίσουν τον κόσμο μας. Επιπλέον, είναι ο ιδρυτής του Securities.io, μια πλατφόρμα που επικεντρώνεται στις επενδύσεις σε τεχνολογίες που αναedefinουν το μέλλον και ανασχήματίσουν ολόκληρους τομείς.