Ηγέτες σκέψης
Η Εξηγήσιμη Λειτουργία Μπορεί να Αντιμετωπίσει το Πρόβλημα του AI σε Κάθε Βιομηχανία: Η Ελλειψη Διαφάνειας

Từ:Migüel Jetté, VP of R&D Speech, Rev.
Στα πρώτα στάδια της, το AI μπορεί να ήταν ικανό να στηριχθεί στις καινοτομίες της νεότητας. Ήταν εντάξει για το machine learning να μάθει αργά και να διατηρήσει μια αδιαφανή διαδικασία όπου ο υπολογισμός του AI ήταν αδύνατο για τον μέσο καταναλωτή να διεισδύσει. Αυτό αλλάζει. Όσο περισσότερες βιομηχανίες, όπως η υγεία, η finance και το σύστημα ποινικής δικαιοσύνης, αρχίζουν να χρησιμοποιούν το AI με τρόπους που μπορούν να έχουν πραγματική επίδραση στη ζωή των ανθρώπων, περισσότεροι άνθρωποι θέλουν να γνωρίζουν πώς χρησιμοποιούνται οι αλγόριθμοι, πώς προέρχονται τα δεδομένα και πόσο ακριβή είναι οι ικανότητές του. Αν οι εταιρείες θέλουν να παραμείνουν στην αιχμή της καινοτομίας στις αγορές τους, πρέπει να βασίζονται σε ένα AI που θα εμπιστεύονται οι συνεργάτες τους. Η εξηγήσιμη λειτουργία του AI είναι το κλειδί για να ενισχύσει αυτή τη σχέση.
Η εξηγήσιμη λειτουργία του AI διαφέρει από τις τυπικές διαδικασίες του AI επειδή προσφέρει στους ανθρώπους einen τρόπο να κατανοήσουν πώς οι αλγόριθμοι του machine learning δημιουργούν εξόδους. Το εξηγήσιμο AI είναι ένα σύστημα που μπορεί να παρέχει στους ανθρώπους πιθανές εξόδους και ελαττώματα. Είναι ένα σύστημα machine learning που μπορεί να ικανοποιήσει την ανθρώπινη επιθυμία για δικαιοσύνη, ευθύνη και σεβασμό στην ιδιωτικότητα. Το εξηγήσιμο AI είναι απαραίτητο για τις επιχειρήσεις να建立ουν εμπιστοσύνη με τους καταναλωτές.
Ενώ το AI επεκτείνεται, οι παρόχοι του AI πρέπει να κατανοήσουν ότι το μαύρο κουτί δεν μπορεί. Τα μοντέλα μαύρου κουτιού δημιουργούνται απευθείας από τα δεδομένα και συχνά ούτε ο dévelopπερας που δημιούργησε τον αλγόριθμο μπορεί να αναγνωρίσει τι οδήγησε τις学会習 του μηχανήματος. Αλλά ο συνειδητός καταναλωτής δεν θέλει να ασχοληθεί με κάτι τόσο αδιαφανές που δεν μπορεί να λογοδοτήσει. Οι άνθρωποι θέλουν να γνωρίζουν πώς ένας αλγόριθμος του AI φτάνει σε ένα συγκεκριμένο αποτέλεσμα χωρίς το μυστήριο της εισόδου και της ελεγχόμενης εξόδου, ειδικά όταν τα λάθη του AI οφείλονται σε προκαταλήψεις του μηχανήματος. Όσο το AI γίνεται πιο προηγμένο, οι άνθρωποι θέλουν πρόσβαση στη διαδικασία του machine learning για να κατανοήσουν πώς ο αλγόριθμος έφτασε στο συγκεκριμένο αποτέλεσμα. Οι ηγέτες σε κάθε βιομηχανία πρέπει να κατανοήσουν ότι σύντομα, οι άνθρωποι δεν θα προτιμούν αυτήν την πρόσβαση αλλά θα την απαιτούν ως απαραίτητο επίπεδο διαφάνειας.
Τα συστήματα ASR, όπως οι φωνητικοί βοηθοί, η τεχνολογία μεταγραφής και άλλες υπηρεσίες που μετατρέπουν την ανθρώπινη ομιλία σε κείμενο, είναι ιδιαίτερα πληγμένα από προκαταλήψεις. Όταν η υπηρεσία χρησιμοποιείται για μέτρα ασφαλείας, τα λάθη που οφείλονται σε προφορές, ηλικία ή υπόβαθρο, μπορούν να είναι σοβαρά λάθη, οπότε το πρόβλημα πρέπει να αντιμετωπιστεί σοβαρά. Το ASR μπορεί να χρησιμοποιηθεί αποτελεσματικά σε κάμερες σώματος της αστυνομίας, για παράδειγμα, για να καταγράψει και να μεταγράψει τις互動 — διατηρώντας ένα αρχείο που, αν μεταγραφεί ακριβώς, θα μπορούσε να σώσει ζωές. Η πρακτική της εξηγήσιμης λειτουργίας θα απαιτήσει ότι το AI δεν βασίζεται μόνο σε αγορασμένα δεδομένα, αλλά αναζητά να κατανοήσει τα χαρακτηριστικά της εισερχόμενης ήχου που θα μπορούσαν να συνεισφέρουν σε λάθη αν υπάρχουν. Ποιο είναι το ακουστικό προφίλ; Υπάρχει θόρυβος στο φόντο; Ο ομιλητής είναι από μια χώρα που δεν έχει την αγγλική ως πρώτη γλώσσα ή από μια γενιά που χρησιμοποιεί einen λεξιλόγιο που το AI δεν έχει μάθει ακόμη; Το machine learning πρέπει να είναι προηγμένο στη μάθηση και μπορεί να αρχίσει με τη συλλογή δεδομένων που μπορούν να αντιμετωπίσουν αυτές τις μεταβλητές.
Η αναγκαιότητα γίνεται όλο και πιο φανερή, αλλά ο δρόμος για την εφαρμογή αυτής της μεθοδολογίας δεν θα έχει πάντα μια εύκολη λύση. Η παραδοσιακή απάντηση στο πρόβλημα είναι να προσθέσετε περισσότερα δεδομένα, αλλά μια πιο εξελιγμένη λύση θα είναι απαραίτητη, ειδικά όταν τα δεδομένα που αγοράζουν οι εταιρείες είναι εγγενώς προκατειλημμένα. Αυτό οφείλεται στο ότι ιστορικά, ήταν δύσκολο να εξηγήσετε μια συγκεκριμένη απόφαση που λήφθηκε από το AI και αυτό οφείλεται στη φύση της πολυπλοκότητας των μοντέλων από άκρο σε άκρο. Ωστόσο, τώρα μπορούμε και μπορούμε να αρχίσουμε ζητώντας πώς οι άνθρωποι έχασαν την εμπιστοσύνη στο AI από την αρχή.
Ανεπίφευκτα, το AI θα κάνει λάθη. Οι εταιρείες πρέπει να κατασκευάσουν μοντέλα που είναι ενήμερα για πιθανές ελαττώματα, να αναγνωρίσουν πότε και πού συμβαίνουν τα προβλήματα και να δημιουργήσουν συνεχείς λύσεις για να κατασκευάσουν ισχυρότερα μοντέλα AI:
- Όταν κάτι πάει λάθος, οι dévelopπερες θα πρέπει να εξηγήσουν τι συνέβη και να αναπτύξουν einen άμεσο πλάνο για την βελτίωση του μοντέλου για να μειώσουν τα μελλοντικά, παρόμοια λάθη.
- Για το μηχάνημα να γνωρίζει πραγματικά αν ήταν σωστό ή λάθος, οι επιστήμονες πρέπει να δημιουργήσουν einen βρόχο ανατροφοδότησης ώστε το AI να μάθει τα ελαττώματά του και να εξελιχθεί.
- Ένας άλλος τρόπος για το ASR να建立ει εμπιστοσύνη ενώ το AI εξελίσσεται είναι να δημιουργήσει einen σύστημα που μπορεί να παρέχει βαθμολογίες εμπιστοσύνης και να προσφέρει λόγους για τους οποίους το AI είναι λιγότερο εμπιστευτικό. Για παράδειγμα, οι εταιρείες συνήθως παράγουν βαθμολογίες από 0 έως 100 για να αντανακλούν τις eigenen ελαττώματα του AI και να εγκαθιδρύσουν διαφάνεια με τους πελάτες τους. Στο μέλλον, τα συστήματα μπορεί να παρέχουν μεταγενέστερες εξηγήσεις για τους λόγους για τους οποίους η ήχος ήταν δύσκολη, προσφέροντας περισσότερα μεταδεδομένα για την ήχο, όπως το αντιλαμβανόμενο επίπεδο θορύβου ή μια λιγότερο κατανοητή προφορά.
Η πρόσθετη διαφάνεια θα οδηγήσει σε καλύτερη ανθρώπινη επιτήρηση της εκπαίδευσης και της απόδοσης του AI. Όσο πιο ανοιχτοί είμαστε για τα σημεία που πρέπει να βελτιωθούμε, τόσο πιο υπευθύνους είμαστε να λάβουμε δράση για αυτές τις βελτιώσεις. Για παράδειγμα, ένας ερευνητής μπορεί να θέλει να γνωρίζει γιατί η λανθασμένη κείμενο εξόδου έτσι ώστε να μπορεί να μετριάσει το πρόβλημα, ενώ ένας μεταγραφέας μπορεί να θέλει αποδείξεις για τους λόγους για τους οποίους το ASR ερμηνεύτηκε λανθασμένα την είσοδο για να βοηθήσει στην αξιολόγηση της εγκυρότητας. Η διατήρηση των ανθρώπων στη διαδικασία μπορεί να μετριάσει κάποια από τα πιο φανερά προβλήματα που ανακύπτουν όταν το AI δεν ελέγχεται. Μπορεί επίσης να επιταχύνει τον χρόνο που απαιτείται για το AI να πιάσει τα λάθη του, να βελτιωθεί και τελικά να διορθώσει τον εαυτό του σε πραγματικό χρόνο.
Το AI έχει την ικανότητα να βελτιώσει τη ζωή των ανθρώπων, αλλά μόνο αν οι άνθρωποι το κατασκευάσουν να παράγει σωστά. Πρέπει να κρατήσουμε όχι μόνο αυτά τα συστήματα αλλά και τους ανθρώπους πίσω από την καινοτομία. Τα συστήματα AI του μέλλοντος αναμένεται να τηρήσουν τις αρχές που ορίζονται από τους ανθρώπους και μόνο τότε θα έχουμε ένα σύστημα που οι άνθρωποι εμπιστεύονται. Είναι ώρα να θεμελιώσουμε και να αγωνιστούμε για αυτές τις αρχές τώρα, ενώ είναι ακόμη οι άνθρωποι που υπηρετούμε τους εαυτούς μας.












