Connect with us

Τι σημαίνει πραγματικά το Human-in-the-Loop;

Ηγέτες σκέψης

Τι σημαίνει πραγματικά το Human-in-the-Loop;

mm

Στο начале του 20ου αιώνα, ο Βρετανός φιλόσοφος Gilbert Ryle έ_coined_ τον όρο “ghost in the machine”. Γράφοντας στο The Concept of Mind, ο Ryle χρησιμοποίησε τη μεταφορά για να αντιταχθεί στον δυαλισμό νου-σώματος που υποστηρίζει ότι ο νους και το σώμα υπάρχουν ως ξεχωριστές ουσίες. Για τον Ryle, αυτή η διαίρεση ήταν ένα λάθος, καθώς η γνώση και η σωματική δράση ήταν αδιαίρετες, μέρος ενός ενιαίου συστήματος και όχι δύο αλληλεπιδρώντων μερών.

Με την έλευση της τεχνητής νοημοσύνης, μια παρόμοια μεταφορά εμφανίζεται τώρα όταν μιλάμε για τους χρήστες των εργαλείων τεχνητής νοημοσύνης για την αύξηση της παραγωγικότητας: το συχνά χρησιμοποιούμενο “human-in-the-loop”. Αν οι άνθρωποι και τα έξυπνα συστήματα είναι τώρα πιο συνδεδεμένα παρά ποτέ, κατασκευάζουμε μια αψεγάδιαστη σύντηξη ή δημιουργούμε μια βολική ψευδαίσθηση ελέγχου;

Οι νεοφυείς εταιρείες βασίζονται πολύ σε αυτή την έννοια για να μιλήσουν για τα εργαλεία τους. Ενώ υπόσχονται καινοτομία και διαβεβαίωση, η πραγματικότητα είναι συχνά πιο复雑. Η ευθύνη μπορεί εύκολα να γίνει διασκορπισμένη και η ευθύνη πιο δύσκολο να αναζητηθεί.

Όσο τα συστήματα τεχνητής νοημοσύνης προχωρούν σε ευαίσθητες περιοχές – από την εκπαίδευση στον πόλεμο – τα στοιχήματα δεν είναι πλέον αφηρημένα. Τι σημαίνει πραγματικά το human-in-the-loop και είναι αυτό απλώς ένας ευφημισμός για όταν εξαφανίζονται完全;

1. Human-in-the-loop ως ασπίδα για την ευθύνη

Χρησιμοποιημένο αμελέτητα, ο όρος human-in-the-loop μπορεί να είναι ένας εύκολος τρόπος για να μεταφερθεί η ευθύνη χωρίς να ασχοληθούμε πραγματικά με αυτήν. Όπως πολλοί παρατηρούν, μια ανθρώπινη υπογραφή στο τέλος μιας διαδικασίας δεν εγγυάται ηθική ακεραιότητα, ιδιαίτερα αν το υποκείμενο σύστημα είναι κακοσχεδιασμένο ή ανεπαρκώς κατανοητό.

Η Maysa Hawwash, ιδρύτρια και διευθύντρια της Scale X, έχει γραψει για την ολίσθηση μακριά από την ευθύνη και είναι ξεκάθαρη σχετικά με τον τρόπο που η έννοια χρησιμοποιείται συχνά. “Είναι στην πραγματικότητα όχι ανόμοιο με άλλους τρόπους μεταφοράς του βάρους.” Η Hawwash είπε στο Startup Beat, χρησιμοποιώντας το παράδειγμα του πώς οι διευθυντές ανθρώπινου δυναμικού χρησιμοποιούν μια πολιτική υπογραφής για να μεταφερθεί η εταιρεία μακριά από την ευθύνη. “Αν έχετε αυτή την πολιτική και οι άνθρωποι την διαβάσουν και την υπογράψουν, τότε ως εταιρεία, τεχνικά δεν είστε υπεύθυνοι, σωστά;” είπε.

Τι εμφανίζεται είναι ένα μοτίβο οικείο σε εταιρικά συστήματα όπου η ευθύνη μεταφέρεται αντί να εξαλειφθεί. Η Hawwash βλέπει αυτό ως τον λήθαργο τρόπο που αποφεύγει την κριτική σκέψη ή την κατανόηση των περιοχών όπου μπορεί να επηρεάσει τους ανθρώπους ή τις κοινότητες. “Έτσι, μεταφέρετε το βάρος, και τότε δεν έχει σημασία αν οι άνθρωποι κατανοούν την πολιτική, δεν έχει σημασία αν η πολιτική έχει νόημα.”

Σε αυτή τη διαμόρφωση, το “human-in-the-loop” κινδυνεύει να γίνει λιγότερο για τη σημαντική παρέμβαση και περισσότερο για την διαδικαστική κάλυψη. Ο κίνδυνος εδώ δεν είναι μόνο σημασιολογικός. Όταν η εποπτεία μειώνεται σε μια υπογραφή, ο ανθρώπινος ρόλος γίνεται συμβολικός αντί για ουσιαστικός.

Η Hawwash αναφέρθηκε σε μια πρόσφατη στρατιωτική ανομία – το σχολείο στο Minab, Ιράν – όπου οι άνθρωποι ενέκριναν μια επίθεση, αλλά η παρουσία ενός ανθρώπινου λήπτη αποφάσεων δεν συνεισέφερε απαραίτητα σε ηθική σαφήνεια ή επαρκή σκέψη. “Όταν είστε σε πόλεμο ή εκτελείτε μια σύνθετη χειρουργική επέμβαση, δεν έχετε το लकί της ώρας για να χρησιμοποιήσετε το human-in-the-loop ως ασπίδα.”

2. Σχεδιασμός για την ευθύνη, όχι μόνο την εποπτεία

Η εναλλακτική λύση δεν είναι να εγκαταλείψουμε τα συστήματα human-in-the-loop, αλλά να τα λάβουμε σοβαρά ως δεσμεύσεις σχεδιασμού. Αυτό σημαίνει να μεταφερθούμε πέρα από τον συμβολικό έλεγχο προς τις σκόπιμες δομές ευθύνης.

“Υπάρχει αυτή η μεγάλη διεκδίκηση να βάλουμε περισσότερη τεχνητή νοημοσύνη στην αγορά. Δεν υπάρχει πολύ σκέψη από πλευράς σχεδιασμού, όπως τι είναι το ροή του επιπτώματος στις κοινότητες, στους ανθρώπους ή στους τελικούς χρήστες,” είπε η Hawwash.

Η ταχύτητα έχει γίνει η κυρίαρχη ανταγωνιστική μεταβλητή. Σε αυτή τη διεκδίκηση, η ευθύνη συχνά αναβλήθηκε αντί να ενσωματωθεί. Το αποτέλεσμα είναι ένα αντιδραστικό μοντέλο ηθικής όπου η διόρθωση των προβλημάτων συμβαίνει μετά την ανάπτυξη αντί να προβλέπεται κατά τη διάρκεια της ανάπτυξης.

Η προσβασιμότητα μπορεί να επιταχύνει την υιοθέτηση, αλλά οδηγεί επίσης σε περισσότερες ενισχυμένες συνέπειες. Τα συστήματα δεν περιορίζονται πλέον σε τεχνικούς χρήστες, καθώς μπορούν να διαμορφώσουν αποφάσεις για ανθρώπους με διαφορετικά επίπεδα κατανόησης και контекστού. Σε τέτοιο περιβάλλον, η ευθύνη δεν μπορεί να εξαγοραστεί από τον τελικό χρήστη.

3. Human-in-the-loop ως ακρίβεια και ευθύνη

Ο Abhay Gupta, συνιδρυτής της Frizzle, προσφέρει μια πιο λειτουργική προοπτική – μια που βασίζεται στη δημιουργία ενός συστήματος όπου η ανθρώπινη εποπτεία είναι και πρακτική και απαραίτητη.

Η εταιρεία του προέκυψε από ένα συγκεκριμένο πρόβλημα: οι υπερβολικά εργαζόμενοι δάσκαλοι. “Στην πόλη ακούτε για τραπεζίτες και συμβούλους που εργάζονται 70 ώρες την εβδομάδα, αλλά δεν ακούτε για δασκάλους που εργάζονται τόσο. Έτσι, από περιέργεια, συνεντεύξαμε εκατοντάδες δασκάλους και σε όλη τη διάρκεια, η βαθμολόγηση ήταν ο μεγαλύτερος χρονοβόρος τους.”

Η αυτοματοποίηση της βαθμολόγησης μπορεί να φαίνεται απλή, αλλά η πολυπλοκότητα της χειρόγραφης μαθηματικής εισαγωγής πραγματικές περιορισμοί για την τεχνητή νοημοσύνη. “Υπάρχει το ζήτημα της ακρίβειας. Η τεχνητή νοημοσύνη δεν είναι τέλεια, οπότε κατασκευάσαμε ένα σύστημα human-in-the-loop. Αν η τεχνητή νοημοσύνη δεν είναι βέβαιη – όπως με τα ακατάστατα χειρόγραφα – σημαδεύει για τον δάσκαλο να αναθεωρήσει και να εγκρίνει ή να απορρίψει.”

Εδώ, ο ανθρώπινος ρόλος δεν είναι απλώς διακοσμητικός. Το σύστημα αναγνωρίζει ρητά την αβεβαιότητά του και κατευθύνει αυτές τις περιπτώσεις σε έναν άνθρωπο. “Για εμάς, πρόκειται για ακρίβεια. Θα υπάρξουν πάντα περιπτώσεις άκρων – μπορεί να είναι 1-3% – όπου η τεχνητή νοημοσύνη παλεύει, οπότε ένας άνθρωπος πρέπει να παρέμβει.”

Αυτή η προσέγγιση αναδιαμορφώνει το human-in-the-loop ως μηχανισμό για τον έλεγχο ποιότητας. Nhưng ο Gupta πηγαίνει παραπέρα: “Στην κεντρική του, η τεχνητή νοημοσύνη δεν είναι 100% ακριβής – μπορεί να ονειρευτεί ή να παράγει λάθος εξόδους. Το human-in-the-loop ενεργεί ως ο τελικός έλεγχος ποιότητας πριν τα αποτελέσματα φτάσουν στον τελικό χρήστη. Είναι επίσης για την ευθύνη. Κάποιος πρέπει να είναι υπεύθυνος για την έξοδο, και τώρα αυτό πρέπει ακόμα να είναι ένας άνθρωπος.”

Σημαντικά, ο ανθρώπινος ρόλος διατηρεί επίσης κάτι λιγότερο ποσοτικοποιήσιμο: τη σχεσιακή πλευρά της διδασκαλίας. “Είναι επίσης για τη διατήρηση της ανθρώπινης πλευράς της διδασκαλίας. Οι δάσκαλοι έχουν διαφορετικά στυλ, οπότε τους αφήνουμε να προσαρμόσουν πώς παρέχεται η ανατροφοδότηση”

Επανακαθορίζοντας το Human-in-the-loop

Η φράση “human in the loop” φέρει μια διαβεβαιώτική απλότητα. Υποδηλώνει ότι ανεξάρτητα από το πόσο προηγμένα γίνονται τα συστήματά μας, ένας άνθρωπος παραμένει στον έλεγχο και δεν είμαστε απλώς “φαντάσματα στη μηχανή”. Nhưng καθώς οι νεοφυείς εταιρείες αναπτύσσουν όλο και περισσότερο την τεχνητή νοημοσύνη σε υψηλά στοιχήματα περιβάλλοντα, αυτή η διαβεβαίωση απαιτεί σκέψη.

Το βαθύτερο ζήτημα είναι ο σχεδιασμός. Αν τα рисκά του συστήματος είναι κακοκαταννοημένα ή σκόπιμα ελαττωμένα, η εισαγωγή ενός ανθρώπου στο τέλος δεν κάνει τίποτα για να διορθώσει τις θεμελιώδεις ελαττώματα. Κρίσιμο, αυτό σημαίνει επίσης να ορίζεται ο ρόλος του ανθρώπου όχι ως πτώση, αλλά ως ουσιαστικός μέρος της λειτουργίας του συστήματος. Ένας άνθρωπος στο loop δεν πρέπει απλώς να εγκρίνει το αποτέλεσμα. Οι νεοφυείς εταιρείες πρέπει να επιδιώξουν να ενδυναμώσουν το προσωπικό τους να διαμορφώσουν, να αμφισβητήσουν και, όταν χρειάζεται, να αντικαταστήσουν με εξουσία.

Ο Arjun Harindranath είναι ένας ελεύθερος δημοσιογράφος με έδρα τη Medellin, Κολομβία, ο οποίος καλύπτει ιστορίες για συγκρούσεις, μετανάστευση και τεχνολογία για ένα παγκόσμιο κοινό. Προηγούμενοι τίτλοι δημοσιευμάτων περιλαμβάνουν Al Jazeera, TechCrunch, The Next Web, και την εφημερίδα New York Times.