Connect with us

Εισαγωγή Νέων Επιπεδών Διαφάνειας με το AI – Ηγέτες Σκέψης

Τεχνητή νοημοσύνη

Εισαγωγή Νέων Επιπεδών Διαφάνειας με το AI – Ηγέτες Σκέψης

mm

Từ Balakrishna D R, Ανώτερος Αντιπρόεδρος, Επικεφαλής Προσφοράς Υπηρεσιών – Ενέργεια, Επικοινωνίες, Υπηρεσίες και Υπηρεσίες AI και Αυτοματοποίησης, στην Infosys.

Στις 9 Ιανουαρίου 2020, ο Παγκόσμιος Οργανισμός Υγείας ενημέρωσε το κοινό για την έξαρση του Κορονοϊού στην Κίνα. Τρεις ημέρες πριν, τα Κέντρα Ελέγχου και Πρόληψης Νοσημάτων των ΗΠΑ είχαν ενημερώσει ήδη. Όμως, ήταν μια καναδική πλατφόρμα παρακολούθησης υγείας που είχε προηγηθεί και των δύο, στέλνοντας ειδοποίηση για την έξαρση στους πελάτες της από τις 31 Δεκεμβρίου 2019! Η πλατφόρμα, BlueDot, χρησιμοποιεί αλγορίθμους που βασίζονται σε τεχνητή νοημοσύνη, οι οποίοι αναζητούν αναφορές ειδήσεων σε ξένες γλώσσες, δίκτυα ασθενειών ζώων και φυτών και επίσημες ανακοινώσεις για να δώσουν στους πελάτες της προηγμένη προειδοποίηση για την αποφυγή επικίνδυνων зωνών όπως η Γουχάν.

Τους τελευταίους quelques χρόνια, η τεχνητή νοημοσύνη έχει γίνει η βασική πηγή μετασχηματισμού, διατάραξης και ανταγωνιστικού πλεονεκτήματος στην ταχέως μεταβαλλόμενη οικονομία της σημερινής εποχής. Από τον εντοπισμό επιδημιών έως την άμυνα, την υγεία, τα αυτόνομα οχήματα και όλα τα άλλα, η τεχνητή νοημοσύνη κερδίζει ευρεία αποδοχή. Η PwC προβλέπει ότι η τεχνητή νοημοσύνη μπορεί να συμβάλλει έως και 15,7 τρισεκατομμύρια δολάρια στην παγκόσμια οικονομία το 2030, με το τρέχον ρυθμό αύξησης.

Ωστόσο, παρά όλες τις ελπίδες που φέρνει η τεχνητή νοημοσύνη, εξακολουθεί να θέτει ανεξήγητες ερωτήσεις γύρω από τη διαφάνεια και την αξιοπιστία. Η ανάγκη να κατανοήσουμε, να προβλέψουμε και να εμπιστευθούμε την ικανότητα λήψης αποφάσεων των συστημάτων τεχνητής νοημοσύνης είναι σημαντική, ιδιαίτερα σε περιοχές που είναι κρίσιμες για τη ζωή, τον θάνατο και την προσωπική ευεξία.

 

Στο άγνωστο

Όταν τα αυτοματοποιημένα συστήματα λήψης αποφάσεων εισήχθησαν για πρώτη φορά για την υποστήριξη της λήψης αποφάσεων, βασίζονταν σε χειροκίνητα κατασκευασμένα κανόνες. Ενώ αυτό έκανε εύκολη την ερμηνεία καθώς και την τροποποίηση της συμπεριφοράς τους, δεν ήταν επεκτάσιμα. Τα μοντέλα που βασίζονται στη μηχανική μάθηση εισήχθησαν για να αντιμετωπίσουν αυτήν την ανάγκη· δεν απαιτούσαν ανθρώπινη παρέμβαση και μπορούσαν να εκπαιδευτούν από δεδομένα – όσο το δυνατόν περισσότερα. Ενώ τα μοντέλα βαθιάς μάθησης είναι ακαταμάχητα στη μοντελοποίηση τους και στο εύρος εφαρμογής τους, το γεγονός ότι αυτά τα μοντέλα είναι μαύρες κουτίες για το μεγαλύτερο μέρος, θέτει ανησυχητικά ερωτήματα σχετικά με την αυθεντικότητά τους, την αξιοπιστία και τις προκαταλήψεις τους στο контέκστ της ευρείας χρήσης τους.

Δεν υπάρχει当前 μηχανισμός για να αναζητήσουμε την έμμεση λογική που χρησιμοποιούν τα μοντέλα βαθιάς μάθησης. Με τα μοντέλα μηχανικής μάθησης που έχουν μαύρη κουτί nature, ο πρωτεύων τύπος εξηγήσιμης είναι γνωστός ως μετα-εξήγηση, που σημαίνει ότι οι εξηγήσεις προέρχονται από τη φύση και τις ιδιότητες των εξόδων που παράγονται από το μοντέλο. Οι πρώτες προσπάθειες να εξαγάγουν κανόνες από νευρωνικά δίκτυα (όπως η βαθιά μάθηση ήταν γνωστή νωρίτερα) δεν διώκονται τώρα,既然 τα δίκτυα έχουν γίνει πολύ μεγάλα και διαφορετικά για την εκτίμηση κανόνων. Υπάρχει, επομένως, μια επείγουσα ανάγκη να εισαχθεί η ερμηνευσιμότητα και η διαφάνεια στο ίδιο το υφάσμα της μοντελοποίησης τεχνητής νοημοσύνης.

 

Έξοδος νύχτα, εισαγωγή φωτός

Αυτή η ανησυχία έχει δημιουργήσει μια ανάγκη για διαφάνεια στη μηχανική μάθηση, η οποία έχει οδηγήσει στην ανάπτυξη της εξηγήσιμης τεχνητής νοημοσύνης, ή XAI. Αυτή αναζητά να αντιμετωπίσει τα κύρια ζητήματα που εμποδίζουν την ικανότητά μας να εμπιστευθούμε πλήρως την λήψη αποφάσεων της τεχνητής νοημοσύνης — συμπεριλαμβανομένης της προκατάληψης και της διαφάνειας. Αυτό το νέο πεδίο της τεχνητής νοημοσύνης φέρνει την ευθύνη για να διασφαλίσει ότι η τεχνητή νοημοσύνη ωφελεί την κοινωνία με καλύτερα αποτελέσματα για όλους τους εμπλεκόμενους.

Η XAI θα είναι κρίσιμη για την αντιμετώπιση της προκατάληψης που είναι εγγενής στα συστήματα και τους αλγορίθμους της τεχνητής νοημοσύνης, οι οποίοι προγραμματίζονται από ανθρώπους των οποίων τα υπόβαθρα και οι εμπειρίες οδηγούν ανεπίσημα στην ανάπτυξη συστημάτων τεχνητής νοημοσύνης που εμφανίζουν προκατάληψη. Ακαίρως προκαταλήψεις όπως η διάκριση κατά μιας συγκεκριμένης εθνικότητας ή φυλής μπορεί να εισέλθουν επειδή το σύστημα προσθέτει μια αξία σε αυτό με βάση πραγματικά δεδομένα. Για παράδειγμα, μπορεί να βρεθεί ότι οι τυπικοί απατεώνες δανείων προέρχονται από μια συγκεκριμένη εθνοτική υπόβαθρο, ωστόσο, η εφαρμογή οποιασδήποτε περιοριστικής πολιτικής με βάση αυτό μπορεί να είναι ενάντια στις δίκαιες πρακτικές. Λανθασμένα δεδομένα είναι μια άλλη αιτία προκατάληψης. Για παράδειγμα, αν ένας αναγνώστης αναγνώρισης προσώπου είναι ανακριβής 5% της φοράς λόγω του χρώματος του προσώπου ή του φωτός που πέφτει στο πρόσωπο, μπορεί να εισαγάγει προκατάληψη. Τέλος, αν τα δείγματά σας δεν είναι μια αληθινή αναπαράσταση του συνόλου του πληθυσμού, η προκατάληψη είναι αναπόφευκτη.

Η XAI στοχεύει να αντιμετωπίσει το πώς οι αποφάσεις των συστημάτων τεχνητής νοημοσύνης λαμβάνονται. Εξετάζει και προσπαθεί να κατανοήσει τα βήματα και τα μοντέλα που συμμετέχουν στη λήψη αποφάσεων. Απαντά σε κρίσιμες ερωτήσεις όπως: Γιατί το σύστημα τεχνητής νοημοσύνης έκανε μια συγκεκριμένη πρόβλεψη ή απόφαση; Γιατί δεν έκανε το σύστημα τεχνητής νοημοσύνης κάτι άλλο; Πότε το σύστημα τεχνητής νοημοσύνης πέτυχε ή απέτυχε; Πότε τα συστήματα τεχνητής νοημοσύνης δίνουν αρκετή εμπιστοσύνη στην απόφαση που μπορείτε να εμπιστευτείτε, και πώς μπορεί το σύστημα τεχνητής νοημοσύνης να διορθώσει λάθη;

 

Εξηγήσιμη, προβλέψιμη και αναλυτική τεχνητή νοημοσύνη

Ένας τρόπος για να κερδίσουμε εξηγήσιμη στην τεχνητή νοημοσύνη είναι να χρησιμοποιήσουμε αλγορίθμους μηχανικής μάθησης που είναι εγγενώς εξηγήσιμοι. Για παράδειγμα, απλούστερες μορφές μηχανικής μάθησης όπως τα δέντρα απόφασης, οι ταξινομητές Bayesian και άλλοι αλγόριθμοι που έχουν ορισμένα ποσά αναλυσιμότητας και διαφάνειας στη λήψη αποφάσεων. Μπορούν να παρέχουν τη видимость που χρειάζεται για κρίσιμα συστήματα τεχνητής νοημοσύνης χωρίς να θυσιάσουν πολύ την απόδοση ή την ακρίβεια.

Παρατηρώντας την ανάγκη να παρέχουμε εξηγήσιμη για τη βαθιά μάθηση και άλλες πιο σύνθετες προσεγγίσεις αλγορίθμων, η Υπηρεσία Άμυνας Προηγμένων Ερευνών των ΗΠΑ (DARPA) διώκει προσπάθειες να παράγει εξηγήσιμες λύσεις τεχνητής νοημοσύνης μέσω μιας σειράς χρηματοδοτούμενων ερευνητικών πρωτοβουλιών. Η DARPA περιγράφει την εξηγήσιμη τεχνητή νοημοσύνη σε τρία μέρη, τα οποία περιλαμβάνουν: ταχύτητα πρόβλεψης, που σημαίνει ότι τα μοντέλα θα εξηγήσουν πώς φθάνουν στα συμπεράσματα για να βελτιώσουν την μελλοντική λήψη αποφάσεων· κατανόηση και εμπιστοσύνη απόφασης από τους ανθρώπινους χρήστες και τους χειριστές, καθώς και έλεγχο και αναλυσιμότητα των ενεργειών που αναλαμβάνονται από τα συστήματα τεχνητής νοημοσύνης.

Η αναλυσιμότητα θα ενδυναμώσει τους ανθρώπους να εισέλθουν στα βρόχους λήψης αποφάσεων της τεχνητής νοημοσύνης και να έχουν την ικανότητα να σταματήσουν ή να ελέγξουν τις εργασίες της, όποτε χρειάζεται. Ένα σύστημα τεχνητής νοημοσύνης δεν αναμένεται μόνο να εκτελέσει μια συγκεκριμένη εργασία ή να επιβάλει αποφάσεις, αλλά και να παρέχει μια διαφανή αναφορά γιατί έλαβε συγκεκριμένες αποφάσεις με την υποστηρικτική λογική.

Η τυποποίηση των αλγορίθμων ή ακόμη και των προσεγγίσεων XAI δεν είναι τρέχον δυνατή, αλλά μπορεί να είναι δυνατή η τυποποίηση των επιπέδων διαφάνειας / επιπέδων εξηγήσιμης. Οι οργανισμοί τυποποίησης προσπαθούν να φτάσουν σε κοινές, τυποποιημένες κατανόηση αυτών των επιπέδων διαφάνειας για να διευκολύνουν την επικοινωνία μεταξύ τελικών χρηστών και προμηθευτών τεχνολογίας.

Όσο οι κυβερνήσεις, οι ιδρύματα, οι επιχειρήσεις και το γενικό κοινό εξαρτώνται από συστήματα που βασίζονται στην τεχνητή νοημοσύνη, η κέρδη της εμπιστοσύνης τους μέσω της διαφάνειας του προCESS λήψης αποφάσεων θα είναι θεμελιώδες. Η εκκίνηση της πρώτης παγκόσμιας διάσκεψης αποκλειστικά αφιερωμένης στην XAI, η Διεθνής Συνεδρίαση για την τεχνητή νοημοσύνη: Εργαστήριο για την Εξηγήσιμη Τεχνητή Νοημοσύνη, είναι περαιτέρω απόδειξη ότι η εποχή της XAI έχει έρθει.

Ο Balakrishna, γνωστός ως Bali D.R., είναι ο Διευθυντής της Τεχνητής Νοημοσύνης και Αυτοματοποίησης στην Infosys όπου διευθύνει τόσο την εσωτερική αυτοματοποίηση για την Infosys όσο και παρέχει ανεξάρτητες υπηρεσίες αυτοματοποίησης αξιοποιώντας προϊόντα για τους πελάτες. Ο Bali βρίσκεται στην Infosys για περισσότερα από 25 χρόνια και έχει διατελέσει σε ρόλους πωλήσεων, διαχείρισης προγραμμάτων και παράδοσης σε διάφορες γεωγραφικές περιοχές και κατακόρυφες βιομηχανίες.