Connect with us

Πώς το Εξηγητό AI Βελτιώνει την Αξιοπιστία και την Αξιοπιστία

Ηγέτες σκέψης

Πώς το Εξηγητό AI Βελτιώνει την Αξιοπιστία και την Αξιοπιστία

mm

Καθώς η τεχνητή νοημοσύνη (AI) δημοκρατιείται σε όλες τις επιχειρήσεις, ενσωματώνεται σιγά σιγά στο ιστό της ύπαρξής μας. Ένας σημαντικός аспект αυτής της δημοκρατίας είναι ότι οι τελικοί χρήστες πρέπει να能够 να κατανοήσουν πλήρως τη διαδικασία και τους μηχανισμούς που χρησιμοποιεί η AI για να φτάσει σε ένα συμπέρασμα ή πώς λειτουργεί για να παράγει τα επιθυμητά αποτελέσματα. Jako άνθρωποι, έχουμε μια βαθιά ριζωμένη ανάγκη να ανακαλύψουμε το “γιατί” και το “πώς” κάθε φαινομένου, που έχει επιταχύνει την τεχνολογική μας πρόοδο. Στο πλαίσιο της AI, αυτή η κατανόηση ονομάζεται “εξηγησιμότητα”.

Γιατί η εξηγησιμότητα είναι η ανάγκη της ώρας;

Συχνά προσεγγίζουμε την AI ως ένα “μαύρο κουτί”, όπου έχουμε μόνο γνώση των εισόδων και εξόδων, αλλά κάπου οι διαδικασίες που χρησιμοποιούνται χάνονται για μας. Αυτό το πρόβλημα ενισχύεται από το γεγονός ότι οι αλγόριθμοι που τροφοδοτούν τις περισσότερες δημοφιλείς μορφές AI, όπως οι σύνθετοι προγνωστικοί συστήματα βαθιάς μάθησης και η επεξεργασία φυσικής γλώσσας (NLP), είναι υψηλά αφηρημένοι ακόμη και για τους πιο επιτυχημένους praktikous.
Εμπιστοσύνη και Διαφάνεια: Για τους χρήστες να εμπιστεύονται τις προβλέψεις της AI, πρέπει να έχει κάποιο επίπεδο εξηγησιμότητας που είναι εγγενές σε αυτή. Για παράδειγμα, αν ένας ιατρός πρέπει να συνιστά μια θεραπεία με βάση τις προβλέψεις της AI, πρέπει να είναι βέβαιος για την προβλέψη. Eine τράπεζα πρέπει να έχει πλήρη εμπιστοσύνη στην απόφαση να απορρίψει ή να εγκρίνει ένα δάνειο και να μπορεί να δικαιολογήσει το ίδιο σε όλους τους ενδιαφερόμενους. Eine AI που χρησιμοποιείται για την οθόνη και την πρόσληψη πρέπει να αποδείξει ότι οι υποκείμενοι μηχανισμοί είναι δίκαιοι και ισότιμοι για όλους τους υποψήφιους.
Κάνει την AI πιο ανθρώπινη και αυξάνει την υιοθέτηση: Στο rapport “The state of AI in 2020” της Mckinsey, μαθαίνουμε ότι ένας κατασκευαστής χρησιμοποιεί εξαιρετικά διαφανή μοντέλα για την αποδοχή από τους εργάτες του, οι οποίοι πρέπει να εμπιστεύονται τις κρίσεις που λαμβάνει η AI σχετικά με την ασφάλεια τους. Για τη γρήγορη υιοθέτηση της AI, η απόκτηση της έγκρισης των ενδιαφερόμενων είναι το κύριο εμπόδιο για την κλιμάκωση από απλές λύσεις σε επιχειρηματικό επίπεδο και να λάβουμε το μέγιστο από την επένδυση. Αυτό μειώνεται σε μεγάλο βαθμό αν η απόδοση είναι εξηγημένη στο ευρύ κοινό. Από επιχειρηματική πλευρά, η εξηγησιμότητα βελτιώνει την συνολική εμπειρία του χρήστη και αυξάνει την ικανοποίηση του πελάτη. Σύμφωνα με τα ευρήματα μιας έρευνας του IBM Institute for Business Value, το 68% των κορυφαίων εκτελεστών πιστεύει ότι οι πελάτες θα απαιτήσουν περισσότερη εξηγησιμότητα από την AI τα επόμενα τρία χρόνια.
Αποκαλύπτει τις προκαταλήψεις και βελτιώνει την απόδοση του μοντέλου: Ένας dévelopπερας πρέπει να γνωρίζει πώς μπορεί να βελτιώσει την απόδοση του μοντέλου και πώς ακριβώς να διορθώσει και να tinh chỉnh το. Ein σαφής πλαισιος εξηγησιμότητας είναι ένα από τα πιο σημαντικά εργαλεία για τη διεξαγωγή της περίεργης ανάλυσης που απαιτείται.
Λαμβάνει οξυδέρκεια, γύρω από τις γνώσεις: Μια πλήρης 360-βαθμιαία άποψη είναι απαραίτητη για την πλήρη κατανόηση των συνταγών που κάνει η AI. Για παράδειγμα, αν η AI χρησιμοποιείται για την λήψη μιας επένδυσης, θα χρειαζόταν επίσης να γνωρίζουμε τη λογική πίσω από αυτή, ώστε να μεταφέρει αυτή τη γνώση σε άλλες περιοχές και να κατανοήσει τους πιθανούς κινδύνους της λήψης αυτής της απόφασης. Eine σαφή κατανόηση του πώς λειτουργεί η AI θα ermögσει επίσης στους λήπτες αποφάσεων να ανακαλύψουν νέες περιπτώσεις χρήσης.
Κανονισμοί και Ευθύνη: Πολλές κανονισμοί όπως το GDPR απαιτούν ένα δικαίωμα εξήγησης, για την αντιμετώπιση των ζητημάτων ευθύνης που προκύπτουν από μια αυτοματοποιημένη διαδικασία λήψης αποφάσεων. Σε συστήματα όπως τα αυτόνομα οχήματα, αν κάτι πάει λάθος οδηγώντας σε απώλεια ζωής και περιουσίας, η σωστή γνώση είναι απαραίτητη για την αναζήτηση της ρίζας, η οποία θα είναι δύσκολο να εντοπιστεί σε ένα σύστημα “μαύρο κουτί”.

Πώς μπορεί η AI να είναι πιο εξηγητική;

Οι εξηγητικές συστήματα τεχνητής νοημοσύνης (XAI) αναπτύσσονται χρησιμοποιώντας διαφορετικές τεχνικές που εστιάζουν είτε στην εξήγηση του μοντέλου ως ένα σύνολο είτε στην εξήγηση του λόγου πίσω από κάθε προβλέψη μέσω της βοήθειας κάποιου αλγορίθμου.
Οι περισσότερες τεχνικές εξηγησιμότητας βασίζονται σε:

  • Αποσύνθεση του μοντέλου σε μεμονωμένα συστατικά)
  • Οπτικοποίηση των προβλέψεων του μοντέλου (για παράδειγμα, αν ένα μοντέλο ταξινομεί ένα αυτοκίνητο ως ενός συγκεκριμένου品牌, υπογραμμίζει το μέρος που προκάλεσε να το σημάνει ως τέτοιο)
  • Εξήγηση Mining (χρησιμοποιώντας τεχνικές μηχανικής μάθησης για την εύρεση σχετικών δεδομένων που εξηγούν την προβλέψη ενός αλγορίθμου τεχνητής νοημοσύνης).

Σε μια τέτοια τεχνική που ονομάζεται proxy modeling, ένα απλούστερο και πιο κατανοητό μοντέλο όπως ένα δέντρο απόφασης χρησιμοποιείται για να αντιπροσωπεύσει περίπου το πιο περίπλοκο μοντέλο AI. Αυτές οι απλές εξηγήσεις δίνουν μια δίκαιη ιδέα του μοντέλου σε υψηλό επίπεδο, αλλά μπορεί να καταπιέσουν ορισμένες νюανς.
Μια άλλη προσέγγιση ονομάζεται “ερμηνευσιμότητα με σχεδιασμό” Αυτή η προσέγγιση τοποθετεί περιορισμούς στο σχεδιασμό και την εκπαίδευση του δικτύου AI με νέο τρόπο, που προσπαθεί να κατασκευάσει το συνολικό δίκτυο από μικρότερα και απλούστερα εξηγητικά κομμάτια . Αυτό περιλαμβάνει ένα εμπόριο μεταξύ επιπέδου ακρίβειας με εξηγησιμότητα και περιορίζει ορισμένες προσεγγίσεις από το εργαλείο του data scientist. Μπορεί επίσης να είναι πολύ compute-εντατική.
Η εκπαίδευση και δοκιμή της AI μπορούν επίσης να χρησιμοποιήσουν agnostic δεδομένα verification τεχνικές όπως το local interpretable model (LIME) και Shapley Additive exPlanations (SHAP), και αυτά πρέπει να προσαρμοστούν για να επιτύχουν υψηλή ακρίβεια μέσω της χρήσης F-score, precision και άλλων μετρήσεων. Και, φυσικά, όλα τα αποτελέσματα πρέπει να παρακολουθούνται και να ελέγχονται χρησιμοποιώντας eine ποικιλία δεδομένων. Χρησιμοποιώντας το LIME, για παράδειγμα, οι οργανισμοί είναι σε θέση να δημιουργήσουν προσωρινά μοντέλα που μιμούνται τις προβλέψεις των μη διαφανών αλγορίθμων όπως η μηχανική μάθηση. Αυτά τα LIME μοντέλα μπορούν τότε να δημιουργήσουν eine ποικιλία παραλλαγών με βάση ένα δεδομένο σύνολο δεδομένων και την αντίστοιχη έξοδο, η οποία μπορεί τότε να χρησιμοποιηθεί για την εκπαίδευση απλών και πιο ερμηνευτικών μοντέλων μαζί με πλήρη λίστες εξηγήσεων για κάθε απόφαση και/ή προβλέψη. Το SHAP framework που έχει τις ρίζες του στη θεωρία παιγνίων και συγκεκριμένα από την συνεργατική θεωρία παιγνίων είναι ένα μοντέλο που. Συνδυάζει την βέλτιστη κατανομή πίστωσης με τοπικές εξηγήσεις χρησιμοποιώντας τις αρχικές Shapley τιμές από τη θεωρία παιγνίων και τους απόγονους τους.

Πρωτοβουλίες Λειτουργιών

Σε ένα πιο στρατηγικό επίπεδο, ωστόσο, τα πλαίσια αξιοπιστίας της AI πρέπει να περιλαμβάνουν ένα ευρύ σύνολο αρχών που στοχεύουν στην εξασφάλιση των σωστών αποτελεσμάτων τόσο στην αρχή της ανάπτυξης όσο και με την πάροδο του χρόνου, καθώς τα μοντέλα εξελίσσονται με την παρουσία των μεταβαλλόμενων περιστάσεων. Στο ελάχιστο, αυτά τα πλαίσια πρέπει να περιλαμβάνουν πράγματα όπως:

  • Ανίχνευση Προκαταλήψεων – όλα τα σύνολα δεδομένων πρέπει να καθαριστούν από προκαταλήψεις και διακριτικά χαρακτηριστικά και τότε να δοθεί η σωστή βαρύτητα και διακριτική ευχέρεια όταν εφαρμόζονται στο μοντέλο εκπαίδευσης;
  • Ανθρώπινη Συμμετοχή – οι оперάτορες πρέπει να能够 να ερευνήσουν και να ερμηνεύσουν τις εξόδους του αλγορίθμου ανά πάσα στιγμή, ιδιαίτερα όταν τα μοντέλα χρησιμοποιούνται για την επιβολή του νόμου και την προστασία των πολιτικών ελευθεριών;
  • Δικαιολογία – όλες οι προβλέψεις πρέπει να能够 να αντέξουν τον έλεγχο, ο οποίος φυσικά απαιτεί υψηλό βαθμό διαφάνειας για να επιτρέψει στους εξωτερικούς παρατηρητές να αξιολογήσουν τις διαδικασίες και τα κριτήρια που χρησιμοποιούνται για την παραγωγή αποτελεσμάτων;
  • Επανειλημμένη – τα αξιόπιστα μοντέλα AI πρέπει να είναι συνεπή στις προβλέψεις τους και πρέπει να εμφανίζουν υψηλά επίπεδα σταθερότητας όταν συναντούν νέα δεδομένα.

Αλλά η XAI δεν πρέπει να θεωρείται μόνο ως ένα μέσο για την βελτίωση της κερδοφορίας, αλλά για να φέρει την ευθύνη για να εξασφαλίσει ότι οι ιδρύματα μπορούν να εξηγήσουν και να δικαιολογήσουν την επίδραση των δημιουργιών τους στην κοινωνία ως ένα σύνολο.

Balakrishna, popularly known as Bali D.R., is the Head of AI and Automation at Infosys where he drives both internal automation for Infosys and provides independent automation services leveraging products for clients. Bali has been with Infosys for more than 25 years and has played sales, program management and delivery roles across different geographies and industry verticals.