Ηθική
Η Google δημιουργεί νέο εξηγήσιμο πρόγραμμα AI για να βελτιώσει τη διαφάνεια και τη δυνατότητα εντοπισμού σφαλμάτων

Μόλις πρόσφατα, η Google ανακοίνωσε τη δημιουργία μιας νέας πλατφόρμας cloud με σκοπό την απόκτηση γνώσεων σχετικά με τον τρόπο με τον οποίο ένα πρόγραμμα τεχνητής νοημοσύνης αποδίδει αποφάσεις, διευκολύνοντας τον εντοπισμό σφαλμάτων ενός προγράμματος και ενισχύοντας τη διαφάνεια. Όπως αναφέρεται από Το μητρώο, η πλατφόρμα cloud ονομάζεται Explainable AI και σηματοδοτεί μια σημαντική προσπάθεια της Google να επενδύσει στην επεξήγηση της τεχνητής νοημοσύνης.
Τα τεχνητά νευρωνικά δίκτυα χρησιμοποιούνται σε πολλά, ίσως τα περισσότερα, από τα κύρια συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στον κόσμο σήμερα. Τα νευρωνικά δίκτυα που εκτελούν μεγάλες εφαρμογές τεχνητής νοημοσύνης μπορεί να είναι εξαιρετικά περίπλοκα και μεγάλα, και καθώς η πολυπλοκότητα ενός συστήματος μεγαλώνει, γίνεται όλο και πιο δύσκολο να κατανοήσουμε γιατί έχει ληφθεί μια συγκεκριμένη απόφαση από το σύστημα. Όπως εξηγεί η Google στη λευκή της βίβλο, καθώς τα συστήματα τεχνητής νοημοσύνης γίνονται πιο ισχυρά, γίνονται επίσης πιο περίπλοκα και ως εκ τούτου πιο δύσκολο να εντοπιστούν σφάλματα. Η διαφάνεια χάνεται επίσης όταν συμβαίνει αυτό, πράγμα που σημαίνει ότι οι μεροληπτικοί αλγόριθμοι μπορεί να είναι δύσκολο να αναγνωριστούν και να αντιμετωπιστούν.
Το γεγονός ότι ο συλλογισμός που καθοδηγεί τη συμπεριφορά των πολύπλοκων συστημάτων είναι τόσο δύσκολο να ερμηνευτεί έχει συχνά δραστικές συνέπειες. Εκτός από το ότι καθιστά δύσκολη την καταπολέμηση της προκατάληψης της τεχνητής νοημοσύνης, μπορεί να καταστήσει εξαιρετικά δύσκολη τη διάκριση ψευδών συσχετισμών από πραγματικά σημαντικούς και ενδιαφέροντες συσχετισμούς.
Πολλές εταιρείες και ερευνητικές ομάδες διερευνούν πώς να αντιμετωπίσουν το πρόβλημα του «μαύρου κουτιού» της τεχνητής νοημοσύνης και να δημιουργήσουν ένα σύστημα που εξηγεί επαρκώς γιατί έχουν ληφθεί ορισμένες αποφάσεις από μια τεχνητή νοημοσύνη. Η πλατφόρμα Explainable AI της Google αντιπροσωπεύει τη δική της προσπάθεια για την αντιμετώπιση αυτής της πρόκλησης. Το εξηγήσιμο AI αποτελείται από τρία διαφορετικά εργαλεία. Το πρώτο εργαλείο είναι ένα σύστημα που περιγράφει ποια χαρακτηριστικά έχουν επιλεγεί από μια τεχνητή νοημοσύνη και εμφανίζει επίσης μια βαθμολογία απόδοσης που αντιπροσωπεύει το μέγεθος της επιρροής που έχει ένα συγκεκριμένο χαρακτηριστικό στην τελική πρόβλεψη. Η αναφορά της Google για το εργαλείο δίνει ένα παράδειγμα πρόβλεψης πόσο θα διαρκέσει μια βόλτα με ποδήλατο με βάση μεταβλητές όπως η βροχόπτωση, η τρέχουσα θερμοκρασία, η ημέρα της εβδομάδας και η ώρα έναρξης. Αφού το δίκτυο αποδώσει την απόφαση, δίνεται ανατροφοδότηση που εμφανίζει ποια χαρακτηριστικά είχαν τον μεγαλύτερο αντίκτυπο στις προβλέψεις.
Πώς παρέχει αυτό το εργαλείο τέτοια ανατροφοδότηση στην περίπτωση δεδομένων εικόνας; Σε αυτήν την περίπτωση, το εργαλείο παράγει μια επικάλυψη που επισημαίνει τις περιοχές της εικόνας που βαρύνουν περισσότερο την απόφαση που αποδόθηκε.
Ένα άλλο εργαλείο που βρίσκεται στην εργαλειοθήκη είναι το εργαλείο "What-If", το οποίο εμφανίζει πιθανές διακυμάνσεις στην απόδοση του μοντέλου καθώς χειραγωγούνται μεμονωμένα χαρακτηριστικά. Τέλος, το τελευταίο εργαλείο ενεργοποίησης μπορεί να ρυθμιστεί για να παρέχει δείγματα αποτελεσμάτων σε ανθρώπινους αναθεωρητές σε ένα σταθερό χρονοδιάγραμμα.
Ο Δρ. Άντριου Μουρ, επικεφαλής επιστήμονας της Google για την Τεχνητή Νοημοσύνη και τη μηχανική μάθηση, περιέγραψε την έμπνευση για το έργο. Ο Μουρ εξήγησε ότι πριν από περίπου πέντε χρόνια η ακαδημαϊκή κοινότητα άρχισε να ανησυχεί για τα επιβλαβή υποπροϊόντα της χρήσης της Τεχνητής Νοημοσύνης και ότι η Google ήθελε να διασφαλίσει ότι τα συστήματά της χρησιμοποιούνταν μόνο με ηθικούς τρόπους. Ο Μουρ περιέγραψε ένα περιστατικό όπου η εταιρεία προσπαθούσε να σχεδιάσει ένα πρόγραμμα υπολογιστικής όρασης για να ειδοποιεί τους εργάτες κατασκευών εάν κάποιος δεν φορούσε κράνος, αλλά ανησυχούσαν ότι η παρακολούθηση θα μπορούσε να παρατραβήξει και να γίνει απανθρωποποιητική. Ο Μουρ είπε ότι υπήρχε ένας παρόμοιος λόγος για τον οποίο η Google αποφάσισε να μην κυκλοφορήσει ένα γενικό API αναγνώρισης προσώπου, καθώς η εταιρεία ήθελε να έχει μεγαλύτερο έλεγχο στον τρόπο χρήσης της τεχνολογίας της και να διασφαλίσει ότι χρησιμοποιείται μόνο με ηθικούς τρόπους.
Ο Μουρ τόνισε επίσης γιατί ήταν τόσο σημαντικό η απόφαση του AI να είναι εξηγήσιμη:
«Εάν έχετε ένα σύστημα κρίσιμο για την ασφάλεια ή κάτι κοινωνικά σημαντικό που μπορεί να έχει ακούσιες συνέπειες, αν πιστεύετε ότι το μοντέλο σας έχει κάνει λάθος, πρέπει να είστε σε θέση να το διαγνώσετε. Θέλουμε να εξηγήσουμε προσεκτικά τι μπορεί και τι δεν μπορεί να κάνει η εξηγησιμότητα. Δεν είναι πανάκεια.»