Τεχνητή νοημοσύνη
Δεν Ευθυγραμμίζουμε Πλέον τους Αλγορίθμους. Ευθυγραμμίζουμε Πολιτισμούς

Για πολλά χρόνια, η κύρια ερώτηση στην τεχνητή νοημοσύνη (AI) ήταν πώς να ευθυγραμμισθούν οι αλγόριθμοι AI με τις ανθρώπινες αξίες. Οι ερευνητές προσπάθησαν να ορίσουν κανόνες ασφάλειας, ηθικές αρχές και μηχανισμούς ελέγχου που καθοδηγούν τις αποφάσεις της AI. Αυτό το έργο πέτυχε σημαντική πρόοδο. Αλλά τώρα, καθώς αυτά τα συστήματα AI γίνονται πιο ικανά και διαδεδομένα, ο στόχος της ευθυγράμμισης αρχίζει να μετατοπίζεται. Αυτό που ξεκίνησε ως η πρόκληση της ευθυγράμμισης ενός μοντέλου με ένα σύνολο οδηγιών έχει γίνει η πολύ μεγαλύτερη πρόκληση της ευθυγράμμισης ολόκληρων πολιτισμών που χρησιμοποιούν αυτά τα συστήματα σε παγκόσμια κλίμακα. Η AI δεν είναι πλέον μόνο ένα εργαλείο. Εξελίσσεται σε ένα περιβάλλον όπου οι κοινωνίες εργάζονται, επικοινωνούν, διαπραγματεύονται και ανταγωνίζονται. Ως αποτέλεσμα, η ευθυγράμμιση δεν παραμένει πλέον ένα τεχνικό πρόβλημα. Έχει γίνει ένα πολιτιστικό πρόβλημα. Σε αυτό το άρθρο, εξηγώ γιατί η ευθυγράμμιση δεν αφορά πλέον μόνο τα μοντέλα και γιατί πρέπει να αρχίσουμε να σκεφτόμαστε σε όρους πολιτισμών αντί για μηχανές. Επίσης, συζητώ πώς αυτή η μετατόπιση επηρεάζει τις ευθύνες μας και τι σημαίνει για τη διεθνή συνεργασία.
Ποίες Αξίες Αντιπροσωπεύει Πραγματικά η AI;
Αν ρωτήσετε μια AI για ένα ευαίσθητο ιστορικό γεγονός, η απάντησή της εξαρτάται από τα δεδομένα που μελέτησε. Αν αυτά τα δεδομένα προέρχονται κυρίως από το δυτικό διαδίκτυο, η απάντηση θα έχει δυτική προκατάληψη. Θα προτεραιοποιήσει τον ατομικισμό, την ανοιχτή ομιλία και τα δημοκρατικά ιδανικά. Αυτές είναι καλές αξίες για πολλούς ανθρώπους. Αλλά δεν είναι οι μόνες αξίες στον κόσμο.
Ένας χρήστης στη Σιγκαπούρη, ένας χρήστης στη Ριάντ και ένας χρήστης στο Σαν Φρανσίσκο έχουν διαφορετικές ορισμούς για τι είναι “ωφέλιμο” και τι είναι “βλαβερό”. Σε ορισμένες κουλτούρες, η κοινωνική αρμονία είναι πιο σημαντική από την απόλυτη ελευθερία της ομιλίας. Σε άλλες, ο σεβασμός στην ιεραρχία είναι πιο σημαντικός από την ανατροπή.
Όταν μια εταιρεία του Σιλικόν Βάλεϊ χρησιμοποιεί “Reinforcement Learning from Human Feedback” (RLHF),雇ώνει ανθρώπους για να βαθμολογήσουν τις απαντήσεις της AI. Αλλά ποιος είναι αυτός ο άνθρωπος; Ποίες είναι οι πιστεύω του; Αν ευθυγραμμίσουν το μοντέλο με τα αμερικανικά πρότυπα, κατασκευάζουν κατά λάθος einen αμερικανικό πολιτιστικό εξαγωγέα. Κατασκευάζουν einen ψηφιακό διπλωμάτη που επιβάλλει τους κανόνες ενός συγκεκριμένου πολιτισμού στον υπόλοιπο κόσμο.
Η Άνοδος των Κυκλικών Σχημάτων
Η πρόκληση δεν είναι μόνο ότι η AI αντανακλά τις πιστεύω μιας κουλτούρας. Είναι πώς αυτές οι πιστεύω μπορούν να μας αλλάξουν. Τα σύγχρονα συστήματα AI έχουν το δυναμικό να διαμορφώσουν τη συμπεριφορά των ατόμων, των οργανισμών και ακόμη και των εθνών. Μπορούν να επηρεάσουν τον τρόπο με τον οποίο σκεφτόμαστε, εργαζόμαστε, εμπιστευόμαστε και ανταγωνιζόμαστε. Αυτό δημιουργεί κυκλικά σχήματα μεταξύ των συστημάτων AI και των ανθρώπινων κοινωνιών. Τα εκπαιδεύουμε και η AI διαμορφώνει τον τρόπο με τον οποίο σκεφτόμαστε και ενεργούμε. Αυτά τα σχήματα γίνονται ισχυρότερα καθώς η AI γίνεται πιο διαδεδομένη. Για να δείτε πώς λειτουργεί αυτό το κυκλικό σχήμα, υπάρχουν δύο παραδείγματα:
- Η μεγάλη κλίμακα της ανάπτυξης της AI αλλάζει τη κοινωνική συμπεριφορά, και η κοινωνική συμπεριφορά αλλάζει τα δεδομένα που εκπαιδεύουν τα νέα συστήματα. Για παράδειγμα, ένας αλγόριθμος συστάσεων μπορεί να διαμορφώσει τι βλέπουν οι άνθρωποι, τι διαβάζουν και τι πιστεύουν. Τα εργαλεία παραγωγικότητας αναμορφώνουν τον τρόπο με τον οποίο οι ομάδες συνεργάζονται και οι μαθητές μαθαίνουν. Αυτές οι αλλαγές στη συμπεριφορά αλλάζουν τα μοτίβα δεδομένων με τη μορφή διαφορετικών συνηθειών προβολής, μοτίβων επικοινωνίας στην εργασία ή στυλ γραφής. Όταν αυτά τα δεδομένα ρέουν σε μελλοντικά σετ δεδομένων εκπαίδευσης, τα μοντέλα προσαρμόζουν τις υποθέσεις και τις εξόδους τους ανάλογα. Η ανθρώπινη συμπεριφορά διαμορφώνει τα μοντέλα, και τα μοντέλα, με τη σειρά τους, διαμορφώνουν την ανθρώπινη συμπεριφορά.
- Τα αυτοματοποιημένα εργαλεία λήψης αποφάσεων επηρεάζουν την公共ική πολιτική, και η公共ική πολιτική επηρεάζει την εκπαίδευση μελλοντικών μοντέλων. Για παράδειγμα, πολλές κυβερνήσεις χρησιμοποιούν πλέον την AI για να προτείνουν πού να διανείμουν πόρους, όπως την αναγνώριση ποίων γειτονιών χρειάζονται περισσότερη υποστήριξη υγείας ή ποίων περιοχών μπορεί να δουν υψηλότερο κίνδυνο εγκλήματος. Όταν οι πολιτικοί ενεργούν με βάση αυτές τις συστάσεις, τα αποτελέσματα αυτών των αποφάσεων αργότερα γίνονται μέρος νέων σετ δεδομένων. Με τον καιρό, οι αποφάσεις πολιτικής που διαμορφώθηκαν από την AI τελικά διαμορφώνουν την επόμενη γενιά μοντέλων AI.
Μόλις αναγνωρίσετε αυτό το κυκλικό σχήμα, γίνεται σαφές ότι η AI σταδιακά διαμορφώνει και ευθυγραμμίζει τους πολιτισμούς. Ως αποτέλεσμα, οι έθνη αρχίζουν να ρωτούν: Πώς μπορούν να προστατεύσουν τις αξίες τους ενώ ενσωματώνουν την AI στις κοινωνίες και τις θεσμούς τους;
Η Emergence του Κυρίαρχου AI
Αυτή η πρόκληση ευθυγράμμισης έχει προκαλέσει σημαντική αντίδραση από τις κυβερνήσεις σε όλο τον κόσμο. Τα έθνη έχουν καταλάβει ότι η εξάρτηση από εισαγόμενα AI είναι ένα ρίσκο για την κυριαρχία τους. Δεν μπορούν να αντέξουν να έχουν τους πολίτες τους εκπαιδευμένους, ενημερωμένους και συμβουλευμένους από ένα μαύρο κουτί που σκέφτεται σαν ξένος.
Αυτή η συνειδητοποίηση έχει οδηγήσει στην άνοδο του “Κυρίαρχου AI“. Η Γαλλία επενδύει πολύ για να κατασκευάσει μοντέλα που μιλούν γαλλικά και κατανοούν το γαλλικό δίκαιο και πολιτισμό. Η Ινδία κατασκευάζει αυτόχθονες αλγόριθμους AI για να διασφαλίσει τις πολιτιστικές της αξίες. Τα Ηνωμένα Αραβικά Εμιράτα και η Κίνα κατασκευάζουν μοντέλα AI ευθυγραμμισμένα με τις δικές τους εθνικές οράσεις.
Αυτή είναι η νέα αγωνία. Είναι μια αγωνία για τον έλεγχο της αφηγήματος. Ένας πολιτισμός που δεν έχει το δικό του AI θα χάσει τελικά τη μνήμη του. Αν τα παιδιά σας ρωτήσουν μια ερώτηση από μια μηχανή και η μηχανή απαντήσει με τη λογική ενός διαφορετικού πολιτισμού, ο πολιτισμός σας αρχίζει να διαβρώνεται. Αυτή η συνειδητοποίηση, ωστόσο, μπορεί να οδηγήσει στη διαμόρφωση διακριτών ψηφιακών μπλοκ. Θα μπορούσαμε να τελειώσουμε με ένα δυτικό AI, ένα κινεζικό AI, ένα ινδικό AI και così κατω.
Ανάγκη για Διπλωματικό AI
Η παραδοσιακή ευθυγράμμιση υποθέτει ότι ένα μοντέλο μπορεί να ευθυγραμμιστεί με προσεκτική εκπαίδευση, προώθηση και φράγματα. Αυτή η σκέψη προέρχεται από την τεχνική στάση της πρώιμης έρευνας ασφάλειας AI. Αλλά ακόμη και η τέλεια ευθυγράμμιση μοντέλου δεν μπορεί να λύσει τις προκλήσεις της ευθυγράμμισης των πολιτισμών. Η ευθυγράμμιση δεν μπορεί να παραμείνει σταθερή όταν οι κοινωνίες τραβούν σε αντίθετες κατευθύνσεις. Αν τα κράτη, οι εταιρείες και οι κοινότητες έχουν αντικρουόμενους στόχους, θα πιέσουν τα συστήματα AI να αντανακλούν αυτές τις αντίθετες κατευθύνσεις. Αυτά τα όρια δείχνουν ότι η ευθυγράμμιση δεν είναι μόνο ένα τεχνικό πρόβλημα. Είναι ένα πρόβλημα διακυβέρνησης, πολιτισμού και συντονισμού. Και αυτά τα προβλήματα απαιτούν όχι μόνο εμπειρογνώμονες ή προγραμματιστές. Ενεπλάκουν ολόκληρους πολιτισμούς.
Πώς προχωράμε; Αν αποδεχθούμε ότι η καθολική ευθυγράμμιση είναι αδύνατη, πρέπει να αλλάξουμε την στρατηγική μας. Πρέπει να σταματήσουμε να ψάχνουμε για μια τεχνική λύση σε ένα φιλοσοφικό πρόβλημα. Πρέπει να αρχίσουμε να σκεφτόμαστε σαν διπλωμάτες. Θα χρειαστεί να κατασκευάσουμε πρωτόκολλα για “Ευθυγράμμιση Πολιτισμού”. Πρέπει να βρούμε τον τρόπο με τον οποίο η AI μπορεί να σέβεται τις πιστεύω και τις αξίες μιας κοινωνίας χωρίς να επιβάλλει τις πιστεύω άλλων πολιτισμών. Με άλλα λόγια, χρειαζόμαστε ένα ψηφιακό ΟΗΕ για τους αλγόριθμους μας.
Αυτό απαιτεί διαφάνεια. Τώρα, δεν γνωρίζουμε πραγματικά ποίες αξίες κρύβονται μέσα στα βαθιά στρώματα ενός νευρωνικού δικτύου. Βλέπουμε μόνο την έξοδο. Για να ευθυγραμμίσουμε τους πολιτισμούς, πρέπει να είμαστε σαφείς σχετικά με το “Σύνταγμα” κάθε μοντέλου. Ένα μοντέλο πρέπει να μπορεί να δηλώσει την προκατάληψή του. Πρέπει να μπορεί να πει: “Είμαι εκπαιδευμένο σε αυτά τα δεδομένα, με αυτούς τους κανόνες ασφάλειας, προτεραιοποιώντας αυτές τις αξίες”. Μόνο όταν η προκατάληψη είναι ορατή μπορούμε να εμπιστευθούμε το σύστημα. Ένας χρήστης πρέπει να μπορεί να αλλάξει μεταξύ προοπτικών. Θα πρέπει να μπορείτε να κάνετε μια ερώτηση και να δείτε πώς ένα “δυτικό” μοντέλο απαντάει σε σύγκριση με το πώς ένα “ανατολικό” μοντέλο απαντά. Αυτό θα μετατρέψει την AI σε ένα εργαλείο για την κατανόηση, αντί για ένα εργαλείο για την εγκεφαλική πλαισίωση.
Το Κύριο
Έχουμε ξοδέψει πολύ χρόνο με την ανησυχία για τον Terminator. Το πραγματικό ρίσκο δεν είναι ότι ένας ρομπότ θα μας καταστρέψει. Το πραγματικό ρίσκο είναι ότι ένας ρομπότ θα μας κάνει να ξεχάσουμε ποιος είμαστε. Η ευθυγράμμιση δεν είναι ένας κώδικας που μπορούμε να γράψουμε μια φορά και να ξεχάσουμε. Είναι μια συνεχής διαπραγμάτευση με τα μοντέλα AI για να τα διατηρήσουμε ευθυγραμμισμένα με τις πιστεύω και τις αξίες μας. Είναι μια πολιτική πράξη. Όταν προχωράμε σε αυτή τη νέα φάση της εποχής της νοημοσύνης, πρέπει να κοιτάξουμε πέρα από την οθόνη. Πρέπει να λάβουμε υπόψη πώς η AI ερμηνεύει την ιστορία μας, τα σύνορά μας και τις πιστεύω μας. Κατασκευάζουμε τους νους που θα μας βοηθήσουν να διοικήσουμε τον κόσμο. Πρέπει να διασφαλίσουμε ότι αυτοί οι νους σέβονται τις διαφορές μεταξύ των πολιτισμών.












