Connect with us

Πώς Μεταφέρω τις Γνώσεις Μου σε Συστήματα AI που Μπορούν Πραγματικά να Λαμβάνουν Αποφάσεις Όπως οι Ανθρώπινοι Εкспέρτες

Ηγέτες σκέψης

Πώς Μεταφέρω τις Γνώσεις Μου σε Συστήματα AI που Μπορούν Πραγματικά να Λαμβάνουν Αποφάσεις Όπως οι Ανθρώπινοι Εкспέρτες

mm
A human expert in a technical control room teaching an AI system to make complex decisions through a holographic interface.

Όταν έφυγα από τη Microsoft και συνέχισα να εργάζομαι με επιχειρήσεις στις αναπτύξεις AI, συνειδητοποίησα ότι τα περισσότερα από τα συστήματα AI που ενθουσίαζαν τους ανθρώπους δεν μπορούσαν πραγματικά να λαμβάνουν αποφάσεις με αληθινή ανθρώπινη κρίση. Βέβαια, μπορούσαν να γράφουν, να συνοψίζουν και να παράγουν εξαιρετικά ευφλεκτό κείμενο που ήχουσε σαν απόφαση, αλλά όταν τα τοποθετούσες σε ένα πραγματικό επιχειρηματικό περιβάλλον, όπου υπάρχουν συμβιβασμοί, αβεβαιότητα, ελλιπείς οδηγίες και πραγματικές συνέπειες, τα συστήματα αυτά δυσκολεύονταν γρήγορα. Αυτό ταιριάζει με τα δεδομένα του MIT Project NANDA, που δείχνουν ότι ενώ το 60% των οργανισμών αξιολόγησαν εργαλεία AI, μόνο το 20% έφτασε στο στάδιο πιλότου και μόνο το 5% έφτασε στη παραγωγή. Με άλλα λόγια, η βιομηχανία παλεύει να κατασκευάσει συστήματα που μπορούν πραγματικά να αντέξουν μέσα σε πραγματικές ροές εργασιών.

Σε επιχειρηματικά περιβάλλοντα, ιδιαίτερα σε τομείς όπως η αλυσίδα εφοδιασμού, η παραγωγή και οι επιχειρηματικές λειτουργίες, το να πάρεις μια απάντηση δεν είναι δύσκολο· το δύσκολο είναι να γνωρίζεις ποια απάντηση να εμπιστευτείς, ποια μεταβλητά είναι τα πιο σημαντικά και τι είναι πιθανό να σπάσει στο hạ游 αν το κάνεις λάθος. Στα μάτια μου, αυτό είναι και ένα πρόβλημα εξειδίκευσης και ένα πρόβλημα κρίσης.

Για να είμαι σαφής, η AI έχει κάνει εξαιρετικές προόδους στην παραγωγή καλύτερων εξόδων. Nhưng καλύτερο εξόδους δεν είναι το ίδιο με καλύτερες αποφάσεις. Αυτά είναι δύο διαφορετικά ορόσημα, και νομίζω ότι η βιομηχανία έχει περάσει πολύ χρόνο αντιμετωπίζοντας αυτά τα δύο ως ανταλλάξιμα.

Η έλλειψη εξειδίκευσης και κρίσης είναι ο λόγος για τον οποίο ενδιαφερθήκα να κατασκευάσω AI που οι ανθρώπινοι эксперты μπορούν να διδάξουν να λαμβάνουν σύνθετες αποφάσεις όπως αυτοί. Η AI δεν πρέπει να ασχολείται μόνο με την αυτοματοποίηση εργασιών, αλλά και με την αποτελεσματική και ασφαλή μεταφορά ανθρώπινης κρίσης σε AI που αντέχει.

Τα μεγάλα μοντέλα γλώσσας (LLM) μιλούν σαν αποφασιστές, αλλά δεν είναι

Δεν υπάρχει αμφιβολία ότι τα LLM είναι χρήσιμα, αλλά δεν είναι, από προεπιλογή, συστήματα λήψης αποφάσεων. Είναι συστήματα προβλέψεων τυλιγμένα σε γλώσσα. Και η γλώσσα είναι πειστική, που είναι μέρος του προβλήματος. Αν ένα σύστημα μπορεί να εξηγήσει τον εαυτό του με ευφράδεια, εύκολα υπερεκτιμούμε τι καταλαβαίνει. Ρωτάς μια επιχειρηματική ερώτηση, σου δίνει μια δομημένη απάντηση με συμβιβασμούς, επιφύλαξεις και ένα όμορφο μικρό περίγραμμα στο τέλος, κάνοντας το να φαίνεται πιο έξυπνο από ότι είναι. Το να ακούγεσαι συνεκτικό και να είσαι λειτουργικά ικανός δεν είναι το ίδιο πράγμα, και αυτό είναι όπου πολλά επιχειρηματικά AI σπάει. Τα μοντέλα μπορούν να σου πουν τι μια καλή απόφαση ακούγεται χωρίς να έχουν καμία κατανόηση για τι κάνει μια απόφαση καλή υπό πίεση, με την πάροδο του χρόνου ή στο контекστ.

Οι πληροφορίες δεν είναι το ίδιο με την εξειδίκευση

Ένας από τους ευκολότερους παγίδες να πέσεις με την AI είναι να υποθέτεις ότι αν ένα σύστημα έχει αρκετές πληροφορίες, πρέπει να μπορεί να εκτελέσει σαν ένας εξπέρ. Φαίνεται λογικό, αλλά όταν το σκέφτεσαι στην καθημερινή μας ζωή, η αύξηση των πληροφοριών μας για κάτι δεν μας κάνει αυτόματα εξπέρτες. Μπορείς να διαβάσεις κάθε εγχειρίδιο αεροπορίας και ακόμα να μην είσαι έτοιμος να προσγειωθείς ένα αεροπλάνο. Μπορείς να μελετήσεις κάθε καλύτερη πρακτική στην αλυσίδα εφοδιασμού και ακόμα να παγώσεις όταν τρία πράγματα πάνε λάθος μαζί.

Μπορώ να συνεχίσω, αλλά το σημείο είναι ότι οι πληροφορίες δεν ισοδυναμούν με ικανότητα. Η ικανότητα προέρχεται από την εμπειρία, συγκεκριμένα, από την επαναλαμβανόμενη έκθεση σε ακατάστατες καταστάσεις όπου η απάντηση δεν είναι προφανής.

Κάθε μέρα, βλέπω ότι τα περισσότερα από τα σημερινά συστήματα AI εκπαιδεύονται σε στατικά παραδείγματα. Αυτό είναι όλα χρήσιμο για την κάνωντας προβλέψεις, αλλά αυτό είναι μόνο ένα μικρό μέρος της λήψης αποφάσεων. Οι επιχειρήσεις δεν λείπουν σε δεδομένα per se, αλλά χρειάζονται δομημένα περιβάλλοντα για άσκηση, που σημαίνει να δώσουν συστήματα περιβάλλοντα όπου μπορούν να:

  • Συναντήσουν πραγματικές καταστάσεις
  • Κάνουν επιλογές
  • Δουν τι συμβαίνει
  • Λάβουν ανατροφοδότηση
  • Βελτιωθούν με την πάροδο του χρόνου

Η AI μπορεί να εκπαιδευτεί χρησιμοποιώντας προβλεπτικούς αλγόριθμους, αλλά αυτή η προσέγγιση έχει περιορισμούς. Τι χρειάζεται τώρα είναι AI που μπορεί να εκπαιδευτεί σε ένα προσομοιωμένο περιβάλλον με ανθρώπινη εποπτεία. Το ονομάζω αυτό μηχανική διδασκαλία, μια μεθοδολογία που διασπά τις σύνθετες αποφάσεις σε σενάρια και ικανότητες, παρέχοντας einen οδηγό για ανθρώπινους εξπέρτες να διδάξουν AI μέσω προσομοίωσης. Η ανταπόκριση και η δοκιμή-σφάλμα στο τέλος επιτρέπουν στους πράκτορες να μάθουν και να ενεργήσουν με πραγματική αυτονομία απευθείας από τους ανθρώπους που κατασκεύασαν αυτές τις διαδικασίες.

Σταμάτηστε να αντιμετωπίζετε την AI σαν ένα μονόλιθο

Ένα άλλο λάθος που βλέπω πολύ είναι η υπόθεση ότι ένα μεγάλο μοντέλο πρέπει να κάνει όλα. Καμία ομάδα μπάσκετ δεν αποτελείται από ένα άτομο. Καμία fabrika δεν διευθύνεται από ένα άτομο. Οι σύνθετες συστήματα λειτουργούν γιατί διαφορετικά μέρη κάνουν διαφορετικά έργα, και υπάρχει μια δομή που τα κρατάει μαζί.

Η AI πρέπει να κατασκευαστεί με τον ίδιο τρόπο. Δεν νομίζω ότι το μακροπρόθεσμο μέλλον της επιχειρηματικής λήψης αποφάσεων είναι ένα γιγαντιαίο μοντέλο που κάθεται στο κέντρο της εταιρείας και προσποιείται ότι είναι καθολικά ικανό. Είναι πολύ πιο πιθανό να μοιάζει με ομάδες εξειδικευμένων πρακτόρων.

Ένας πράκτορας θα μπορούσε να είναι εξπέρτης στην ανάκτηση δεδομένων. Ένας άλλος είναι καλύτερος στην αξιολόγηση σεναρίων. Ένας άλλος χειρίζεται την προγραμματισμό. Ένας ελέγχει τη συμμόρφωση ή πιάνει τις αντίθετες. Ένας ενεργεί περισσότερο σαν επόπτης, αποφασίζοντας πότε να ανέβει ή πότε η εμπιστοσύνη είναι πολύ χαμηλή για να προχωρήσει. Η αρχιτεκτονική της ομάδας έχει πολύ περισσότερο νόημα για μένα γιατί αντιστοιχεί με τον τρόπο που λειτουργούν οι πραγματικές οργανώσεις και συγχρονίζεται με τις ευρύτερες αγορές. Τα ευρήματα της McKinsey ενισχύουν ότι οι οργανισμοί λαμβάνουν την περισσότερη αξία από την AI με την ανασχεδιασμό των ροών εργασιών και των λειτουργικών δομών γύρω της.

Δεν όλες οι αποφάσεις λαμβάνονται με τον ίδιο τρόπο, και πολύ συχνά υποθέτουμε ότι το ίδιο μοντέλο, τα ίδια δεδομένα και ο ίδιος τύπος συλλογισμού μπορούν να χειριστούν όλες.

Οι τέσσερις τρόποι με τους οποίους οι αποφάσεις πραγματικά συμβαίνουν

Στην εμπειρία μου, οι περισσότερες αποφάσεις τείνουν να πέσουν σε μερικά κουτιά:

  1. Συστήματα ελέγχου (κανόνες και τύποι): Οι αποφάσεις λαμβάνονται εφαρμόζοντας προκαθορισμένες εξισώσεις ή κανόνες σε γνωστές εισόδους. Αν X συμβεί, κάνε Y.
  2. Αναζήτηση και βελτιστοποίηση: Οι αποφάσεις λαμβάνονται αξιολογώντας πολλές πιθανές επιλογές και επιλέγοντας την καλύτερη βάσει ενός καθορισμένου αντικειμενικού.
  3. Ενίσχυση μάθησης (δοκιμή και λάθος): Οι αποφάσεις μαθαίνονται με την πάροδο του χρόνου με την λήψη ενεργειών, την παρατήρηση των αποτελεσμάτων και την προσαρμογή βάσει ανταμοιβής ή ποινής.
  4. Άσκηση και εμπειρία (μάθηση τύπου ανθρώπου): Οι αποφάσεις διαμορφώνονται μέσω της επαναλαμβανόμενης έκθεσης, της καθοδηγούμενης ανατροφοδότησης και της συσσώρευσης κρίσης σε πραγματικές καταστάσεις.

Η περισσότερη επιχειρηματική AI κάνει καλά στις δύο πρώτες κατηγορίες. Οι τρίτη και τέταρτη κατηγορία είναι πιο δύσκολες για την AI, γιατί εκεί είναι που ζει η ανθρώπινη κρίση.

Αυτονομία χωρίς δομή είναι κίνδυνος

Όταν οι άνθρωποι μιλούν για αυτονομία AI, η συζήτηση συνήθως χωρίζεται σε δύο ακραίες απόψεις. Η μια πλευρά νομίζει ότι τα συστήματα είναι βασικά μαγικά και έτοιμα να τρέξουν όλα. Η άλλη πλευρά ενεργεί σαν να μην πρέπει να εμπιστεύονται τίποτα σημαντικό.

Δεν νομίζω ότι καμία από τις δύο απόψεις είναι χρήσιμη. Πρέπει να εστιάσουμε στην αυτονομία μέσα στη δομή γιατί η αυτονομία χωρίς εποπτεία, λογική ανέβασματος, όρια ή ευθύνη είναι η κύρια πηγή κινδύνου. Οι ανησυχίες για τον κίνδυνο εμφανίζονται πιο πολύ τώρα, συμπεριλαμβανομένων και στις συνομιλίες που διαμορφώνονται από προσπάθειες όπως το Πλαίσιο Διαχείρισης Κινδύνου AI του Εθνικού Ινστιτούτου Προτύπων και Τεχνολογίας, που αντανακλούν πώς σοβαρά οι οργανισμοί λαμβάνουν τις ερωτήσεις της εποπτείας, της ευθύνης και της λειτουργικής εμπιστοσύνης.

Το μέλλον της επιχειρηματικής AI βρίσκεται σε ομάδες πρακτόρων. Οι οργανισμοί που λαμβάνουν την περισσότερη αξία από την AI δεν θα είναι αυτοί που αυτοματοποιούν τις περισσότερες λέξεις. Είναι αυτοί που καταφέρνουν να μεταφέρουν πραγματική εξειδίκευση σε συστήματα που μπορούν να αντέξουν όταν το περιβάλλον γίνεται ακατάστατο. Αυτό, κατά την άποψή μου, είναι η διαφορά μεταξύ AI που φαίνεται εντυπωσιακό και AI που γίνεται πραγματικά χρήσιμο, παράγοντας πραγματική απόδοση επένδυσης.

Ο Kence Anderson είναι ο ιδρυτής και διευθύνων σύμβουλος της AMESA και πρώην διευθυντής της Αυτόνομης Υιοθέτησης AI στη Microsoft. Είναι πιονιέρης στον τομέα των ευφυών αυτόνομων πρακτόρων, έχοντας συνδημιουργήσει το "Machine Teaching", μια μεθοδολογία που επιτρέπει στους πράκτορες AI να αναπτύσσουν αυτονομία στον πραγματικό κόσμο μέσω προσομοίωσης, ανατροφοδότησης και δοκιμής-και-λαθού. Τα τελευταία επτά χρόνια, ο Kence έχει επικεντρωθεί αποκλειστικά στο σχεδιασμό, την κατασκευή και την ανάπτυξη ευφυών αυτόνομων πρακτόρων για τη βιομηχανία και τη λογιστική, ηγώντας σε πάνω από 200 πραγματικές αναπτύξεις για μεγάλες εταιρείες, συμπεριλαμβανομένων των Shell, PepsiCo και Delta Airlines. Είναι επίσης ο συγγραφέας του Designing Autonomous AI (O’Reilly, 2022) και τώρα αναπτύσσει μια οριζόντια πλατφόρμα για την ορχήστρα πράκτορων AI για λήψη αποφάσεων αξίας εκατομμυρίων δολαρίων στις επιχειρηματικές λειτουργίες.