στέλεχος Τι είναι το Explainable AI; - Unite.AI
Συνδεθείτε μαζί μας
Masterclass AI:

AI 101

Τι είναι το Explainable AI;

Ενημερώθηκε on
Εικόνα: DeepMind στο Unsplash

Καθώς η τεχνητή νοημοσύνη (AI) γίνεται πιο περίπλοκη και υιοθετείται ευρέως στην κοινωνία, ένα από τα πιο κρίσιμα σύνολα διαδικασιών και μεθόδων είναι εξηγήσιμο (AI), που μερικές φορές αναφέρεται ως XAI. 

Το εξηγήσιμο AI μπορεί να οριστεί ως:

  • Ένα σύνολο διαδικασιών και μεθόδων που βοηθούν τους ανθρώπινους χρήστες να κατανοήσουν και να εμπιστευτούν τα αποτελέσματα των αλγορίθμων μηχανικής μάθησης. 

Όπως μπορείτε να μαντέψετε, αυτή η επεξήγηση είναι απίστευτα σημαντική καθώς οι αλγόριθμοι τεχνητής νοημοσύνης αναλαμβάνουν τον έλεγχο πολλών τομέων, γεγονός που ενέχει τον κίνδυνο μεροληψίας, ελαττωματικών αλγορίθμων και άλλων ζητημάτων. Επιτυγχάνοντας διαφάνεια με επεξήγηση, ο κόσμος μπορεί πραγματικά να αξιοποιήσει τη δύναμη της τεχνητής νοημοσύνης. 

Το εξηγήσιμο AI, όπως υποδηλώνει το όνομα, βοηθά στην περιγραφή ενός μοντέλου AI, των επιπτώσεών του και των πιθανών προκαταλήψεων. Παίζει επίσης ρόλο στον χαρακτηρισμό της ακρίβειας, της δικαιοσύνης, της διαφάνειας και των αποτελεσμάτων του μοντέλου στις διαδικασίες λήψης αποφάσεων που βασίζονται σε τεχνητή νοημοσύνη. 

Οι σημερινοί οργανισμοί που βασίζονται στην τεχνητή νοημοσύνη θα πρέπει πάντα να υιοθετούν εξηγήσιμες διαδικασίες τεχνητής νοημοσύνης για να βοηθήσουν στην οικοδόμηση εμπιστοσύνης στα μοντέλα τεχνητής νοημοσύνης στην παραγωγή. Το εξηγήσιμο AI είναι επίσης το κλειδί για να γίνεις μια υπεύθυνη εταιρεία στο σημερινό περιβάλλον τεχνητής νοημοσύνης.

Επειδή τα σημερινά συστήματα τεχνητής νοημοσύνης είναι τόσο προηγμένα, οι άνθρωποι συνήθως εκτελούν μια διαδικασία υπολογισμού για να εντοπίσουν ξανά πώς ο αλγόριθμος έφτασε στο αποτέλεσμά του. Αυτή η διαδικασία γίνεται «μαύρο κουτί», που σημαίνει ότι είναι αδύνατο να γίνει κατανοητό. Όταν αυτά τα ανεξήγητα μοντέλα αναπτύσσονται απευθείας από δεδομένα, κανείς δεν μπορεί να καταλάβει τι συμβαίνει μέσα τους. 

Κατανοώντας πώς λειτουργούν τα συστήματα τεχνητής νοημοσύνης μέσω εξηγήσιμης τεχνητής νοημοσύνης, οι προγραμματιστές μπορούν να διασφαλίσουν ότι το σύστημα λειτουργεί όπως θα έπρεπε. Μπορεί επίσης να βοηθήσει να διασφαλιστεί ότι το μοντέλο πληροί τα ρυθμιστικά πρότυπα και παρέχει την ευκαιρία στο μοντέλο να αμφισβητηθεί ή να αλλάξει. 

Εικόνα: Dr. Matt Turek/DARPA

Διαφορές μεταξύ AI και XAI

Ορισμένες βασικές διαφορές βοηθούν στο διαχωρισμό της «κανονικής» τεχνητής νοημοσύνης από την εξηγήσιμη τεχνητή νοημοσύνη, αλλά το πιο σημαντικό, η XAI εφαρμόζει συγκεκριμένες τεχνικές και μεθόδους που διασφαλίζουν ότι κάθε απόφαση στη διαδικασία ML είναι ανιχνεύσιμη και εξηγήσιμη. Συγκριτικά, η κανονική τεχνητή νοημοσύνη συνήθως φτάνει στο αποτέλεσμά της χρησιμοποιώντας έναν αλγόριθμο ML, αλλά είναι αδύνατο να κατανοήσουμε πλήρως πώς έφτασε ο αλγόριθμος στο αποτέλεσμα. Στην περίπτωση της κανονικής τεχνητής νοημοσύνης, είναι εξαιρετικά δύσκολο να ελεγχθεί η ακρίβεια, με αποτέλεσμα την απώλεια ελέγχου, λογοδοσίας και ελέγχου. 

Οφέλη της εξηγήσιμης τεχνητής νοημοσύνης 

Υπάρχουν πολλά οφέλη για κάθε οργανισμό που θέλει να υιοθετήσει εξηγήσιμη τεχνητή νοημοσύνη, όπως: 

  • Ταχύτερα αποτελέσματα: Το εξηγήσιμο AI δίνει τη δυνατότητα στους οργανισμούς να παρακολουθούν και να διαχειρίζονται συστηματικά μοντέλα για τη βελτιστοποίηση των επιχειρηματικών αποτελεσμάτων. Είναι δυνατό να αξιολογείται συνεχώς και να βελτιώνεται η απόδοση του μοντέλου και να βελτιστοποιείται η ανάπτυξη μοντέλων.
  • Μετριάστε τους κινδύνους: Υιοθετώντας επεξηγήσιμες διαδικασίες τεχνητής νοημοσύνης, διασφαλίζετε ότι τα μοντέλα τεχνητής νοημοσύνης σας είναι εξηγήσιμα και διαφανή. Μπορείτε να διαχειριστείτε ρυθμιστικές απαιτήσεις, συμμόρφωση, κινδύνους και άλλες απαιτήσεις, ελαχιστοποιώντας ταυτόχρονα τα γενικά έξοδα της μη αυτόματης επιθεώρησης. Όλα αυτά συμβάλλουν επίσης στον μετριασμό του κινδύνου ακούσιας προκατάληψης. 
  • Χτίζω εμπιστοσύνη: Το εξηγήσιμο AI συμβάλλει στη δημιουργία εμπιστοσύνης στην τεχνητή νοημοσύνη παραγωγής. Τα μοντέλα τεχνητής νοημοσύνης μπορούν να τεθούν γρήγορα στην παραγωγή, μπορείτε να διασφαλίσετε την ερμηνευτικότητα και την επεξήγηση και η διαδικασία αξιολόγησης μοντέλων μπορεί να απλοποιηθεί και να γίνει πιο διαφανής. 

Τεχνικές για εξηγήσιμη τεχνητή νοημοσύνη

Υπάρχουν ορισμένες τεχνικές XAI που πρέπει να λάβουν υπόψη όλοι οι οργανισμοί και αποτελούνται από τρεις κύριες μεθόδους: ακρίβεια πρόβλεψης, Ιχνηλασιμότητα, να κατανόηση απόφασης

Η πρώτη από τις τρεις μεθόδους, ακρίβεια πρόβλεψης, είναι απαραίτητο για την επιτυχή χρήση της τεχνητής νοημοσύνης σε καθημερινές λειτουργίες. Μπορούν να πραγματοποιηθούν προσομοιώσεις και η έξοδος XAI μπορεί να συγκριθεί με τα αποτελέσματα στο σύνολο δεδομένων εκπαίδευσης, κάτι που βοηθά στον προσδιορισμό της ακρίβειας πρόβλεψης. Μια από τις πιο δημοφιλείς τεχνικές για να επιτευχθεί αυτό ονομάζεται Local Interpretable Model-Agnostic Explanations (LIME), μια τεχνική που εξηγεί την πρόβλεψη των ταξινομητών από τον αλγόριθμο μηχανικής μάθησης. 

Η δεύτερη μέθοδος είναι Ιχνηλασιμότητα, το οποίο επιτυγχάνεται με τον περιορισμό του τρόπου λήψης αποφάσεων, καθώς και με τη δημιουργία ενός στενότερου εύρους για κανόνες και δυνατότητες μηχανικής εκμάθησης. Μία από τις πιο κοινές τεχνικές ιχνηλασιμότητας είναι το DeepLIFT ή Deep Learning Important FeaTures. Το DeepLIFT συγκρίνει την ενεργοποίηση κάθε νευρώνα με τον νευρώνα αναφοράς του, ενώ καταδεικνύει μια ανιχνεύσιμη σύνδεση μεταξύ κάθε ενεργοποιημένου νευρώνα. Δείχνει επίσης τις εξαρτήσεις μεταξύ τους. 

Η τρίτη και τελευταία μέθοδος είναι κατανόηση απόφασης, η οποία είναι επικεντρωμένη στον άνθρωπο, σε αντίθεση με τις άλλες δύο μεθόδους. Η κατανόηση της απόφασης περιλαμβάνει την εκπαίδευση του οργανισμού, και συγκεκριμένα της ομάδας που εργάζεται με την τεχνητή νοημοσύνη, ώστε να μπορέσει να κατανοήσει πώς και γιατί η τεχνητή νοημοσύνη λαμβάνει αποφάσεις. Αυτή η μέθοδος είναι ζωτικής σημασίας για την εδραίωση εμπιστοσύνης στο σύστημα. 

Επεξηγήσιμες αρχές τεχνητής νοημοσύνης

Για την καλύτερη κατανόηση του XAI και των αρχών του, το Εθνικό Ινστιτούτο Προτύπων (NIST), το οποίο ανήκει στο Υπουργείο Εμπορίου των ΗΠΑ, παρέχει ορισμούς για τέσσερις αρχές εξηγήσιμης τεχνητής νοημοσύνης: 

  1. Ένα σύστημα τεχνητής νοημοσύνης θα πρέπει να παρέχει στοιχεία, υποστήριξη ή αιτιολογία για κάθε έξοδο. 
  2. Ένα σύστημα τεχνητής νοημοσύνης θα πρέπει να δίνει εξηγήσεις που να είναι κατανοητές από τους χρήστες του. 
  3. Η επεξήγηση θα πρέπει να αντικατοπτρίζει με ακρίβεια τη διαδικασία που χρησιμοποιείται από το σύστημα για να καταλήξει στην έξοδό του. 
  4. Το σύστημα τεχνητής νοημοσύνης θα πρέπει να λειτουργεί μόνο υπό τις συνθήκες για τις οποίες σχεδιάστηκε και δεν θα πρέπει να παρέχει έξοδο όταν δεν έχει επαρκή εμπιστοσύνη στο αποτέλεσμα. 

Αυτές οι αρχές μπορούν να οργανωθούν ακόμη περισσότερο σε: 

  • Με νοημα: Για να επιτευχθεί η αρχή της σημασίας, ο χρήστης πρέπει να κατανοήσει την εξήγηση που παρέχεται. Αυτό θα μπορούσε επίσης να σημαίνει ότι στην περίπτωση ενός αλγόριθμου τεχνητής νοημοσύνης που χρησιμοποιείται από διαφορετικούς τύπους χρηστών, ενδέχεται να υπάρχουν πολλές εξηγήσεις. Για παράδειγμα, στην περίπτωση ενός αυτοοδηγούμενου αυτοκινήτου, μια εξήγηση μπορεί να είναι όπως…”η τεχνητή νοημοσύνη κατηγοριοποίησε την πλαστική σακούλα στο δρόμο ως βράχο και, ως εκ τούτου, ανέλαβε δράση για να αποφύγει το χτύπημα.” Αν και αυτό το παράδειγμα θα λειτουργούσε για το πρόγραμμα οδήγησης, δεν θα ήταν πολύ χρήσιμο σε έναν προγραμματιστή AI που θέλει να διορθώσει το πρόβλημα. Σε αυτήν την περίπτωση, ο προγραμματιστής πρέπει να καταλάβει γιατί υπήρξε εσφαλμένη ταξινόμηση. 
  • Ακρίβεια επεξήγησης: Σε αντίθεση με την ακρίβεια εξόδου, η ακρίβεια επεξήγησης περιλαμβάνει τον αλγόριθμο AI που εξηγεί με ακρίβεια πώς έφτασε στην έξοδό του. Για παράδειγμα, εάν ένας αλγόριθμος έγκρισης δανείου εξηγεί μια απόφαση με βάση το εισόδημα μιας αίτησης ενώ στην πραγματικότητα βασιζόταν στον τόπο διαμονής του αιτούντος, η εξήγηση θα ήταν ανακριβής. 
  • Όρια γνώσης: Τα όρια γνώσης της τεχνητής νοημοσύνης μπορούν να επιτευχθούν με δύο τρόπους, και συνεπάγεται ότι η εισαγωγή είναι εκτός της τεχνογνωσίας του συστήματος. Για παράδειγμα, εάν έχει κατασκευαστεί ένα σύστημα για την ταξινόμηση ειδών πτηνών και του δίνεται μια εικόνα ενός μήλου, θα πρέπει να μπορεί να εξηγήσει ότι η είσοδος δεν είναι πουλί. Εάν δοθεί στο σύστημα μια θολή εικόνα, θα πρέπει να μπορεί να αναφέρει ότι δεν είναι σε θέση να αναγνωρίσει το πουλί στην εικόνα ή, εναλλακτικά, ότι η αναγνώρισή του έχει πολύ χαμηλή εμπιστοσύνη. 

Ο ρόλος των δεδομένων στο εξηγήσιμο AI

Ένα από τα πιο σημαντικά στοιχεία της εξηγήσιμης τεχνητής νοημοσύνης είναι τα δεδομένα. 

Σύμφωνα με Google, όσον αφορά τα δεδομένα και την εξηγήσιμη τεχνητή νοημοσύνη, «ένα σύστημα τεχνητής νοημοσύνης γίνεται καλύτερα κατανοητό από τα υποκείμενα δεδομένα εκπαίδευσης και τη διαδικασία εκπαίδευσης, καθώς και από το μοντέλο τεχνητής νοημοσύνης που προκύπτει». Αυτή η κατανόηση βασίζεται στην ικανότητα χαρτογράφησης ενός εκπαιδευμένου μοντέλου τεχνητής νοημοσύνης στο ακριβές σύνολο δεδομένων που χρησιμοποιείται για την εκπαίδευσή του, καθώς και στην ικανότητα προσεκτικής εξέτασης των δεδομένων. 

Για να βελτιώσετε την επεξήγηση ενός μοντέλου, είναι σημαντικό να δίνετε προσοχή στα δεδομένα εκπαίδευσης. Οι ομάδες θα πρέπει να προσδιορίσουν την προέλευση των δεδομένων που χρησιμοποιούνται για την εκπαίδευση ενός αλγόριθμου, τη νομιμότητα και τη δεοντολογία που περιβάλλει την απόκτησή του, οποιαδήποτε πιθανή μεροληψία στα δεδομένα και τι μπορεί να γίνει για να μετριαστεί οποιαδήποτε προκατάληψη. 

Μια άλλη κρίσιμη πτυχή των δεδομένων και του XAI είναι ότι τα δεδομένα που δεν σχετίζονται με το σύστημα θα πρέπει να αποκλείονται. Για να επιτευχθεί αυτό, τα άσχετα δεδομένα δεν πρέπει να περιλαμβάνονται στο σετ εκπαίδευσης ή στα δεδομένα εισόδου. 

Η Google έχει προτείνει ένα σύνολο πρακτικών για την επίτευξη ερμηνείας και υπευθυνότητας: 

  • Σχεδιάστε τις επιλογές σας για να επιδιώξετε την ερμηνευτικότητα
  • Αντιμετωπίστε την ερμηνευτικότητα ως βασικό μέρος της εμπειρίας χρήστη
  • Σχεδιάστε το μοντέλο ώστε να είναι ερμηνεύσιμο
  • Επιλέξτε μετρήσεις που αντικατοπτρίζουν τον τελικό στόχο και την τελική εργασία
  • Κατανοήστε το εκπαιδευμένο μοντέλο
  • Κοινοποιήστε εξηγήσεις στους χρήστες του μοντέλου
  • Πραγματοποιήστε πολλές δοκιμές για να βεβαιωθείτε ότι το σύστημα AI λειτουργεί όπως προβλέπεται 

Ακολουθώντας αυτές τις συνιστώμενες πρακτικές, ο οργανισμός σας μπορεί να διασφαλίσει ότι επιτυγχάνει εξηγήσιμη τεχνητή νοημοσύνη, η οποία είναι το κλειδί για κάθε οργανισμό που βασίζεται στην τεχνητή νοημοσύνη στο σημερινό περιβάλλον. 

 

Ο Alex McFarland είναι δημοσιογράφος και συγγραφέας AI που εξερευνά τις τελευταίες εξελίξεις στην τεχνητή νοημοσύνη. Έχει συνεργαστεί με πολλές startups και εκδόσεις AI παγκοσμίως.