Connect with us

Ερευνητές Βρίσκουν Ότι Τα Μοντέλα AI Μπορούν Να Επηρεάσουν τους Ανθρώπους Να Λαμβάνουν Αήθικες Αποφάσεις

Ηθική

Ερευνητές Βρίσκουν Ότι Τα Μοντέλα AI Μπορούν Να Επηρεάσουν τους Ανθρώπους Να Λαμβάνουν Αήθικες Αποφάσεις

mm

Μια ομάδα ερευνητών έχει最近 ερευνήσει τη δυνατότητα του AI να διαφθαρεί τους ανθρώπους και να τους επηρεάσει να λαμβάνουν αήθικες αποφάσεις. Οι ερευνητές ερεύνησαν πώς οι αλληλεπιδράσεις με συστήματα που βασίζονται στο μοντέλο GPT-2 της OpenAI θα μπορούσαν να επηρεάσουν τους ανθρώπους να λαμβάνουν αήθικες αποφάσεις, ακόμη και όταν είναι ενήμεροι ότι η πηγή της συμβουλής ήταν ένα σύστημα AI.

Τα συστήματα AI γίνονται όλο και πιο πανταχού παρόντα και η επιρροή τους μεγαλώνει συνεχώς. Τα συστήματα AI επηρεάζουν τις αποφάσεις των ανθρώπων, χρησιμοποιούνται για όλα, από την προβολή ταινιών έως την προβολή ρομαντικών συντρόφων. Δεδομένου πόσο μεγάλη είναι η επιρροή του AI στη ζωή των ανθρώπων, είναι σημαντικό να εξεταστεί πώς το AI μπορεί να επηρεάσει τους ανθρώπους να λαμβάνουν αήθικες αποφάσεις και να παραβιάζουν ηθικές οδηγίες. Αυτό είναι ιδιαίτερα αλήθεια, δεδομένου ότι τα μοντέλα AI γίνονται συνεχώς πιο εξελιγμένα.

Οι κοινωνικοί επιστήμονες και οι επιστήμονες δεδομένων έχουν γίνει ολοένα και πιο ανήσυχοι ότι τα μοντέλα AI θα μπορούσαν να χρησιμοποιηθούν για τη διάδοση επικίνδυνης ψευδείς πληροφορίες και παραπλανητικών πληροφοριών. Μια πρόσφατη μελέτη που δημοσιεύθηκε από ερευνητές του Middlebury Institute of International Studies’ Center on Terrorism, Extremism, and Counterterrorism (CTEC) βρήκε ότι το μοντέλο GPT-3 της OpenAI θα μπορούσε να χρησιμοποιηθεί για τη δημιουργία επιρροών κειμένων ικανών να ριζοσπαστικοποιήσουν τους ανθρώπους, ωθώντας τους προς “βίαιες ακροδεξιές εξτρεμιστικές ιδεολογίες και συμπεριφορές”.

Μια μελέτη που πραγματοποιήθηκε από μια ομάδα ερευνητών από το Ινστιτούτο Max Planck, το Πανεπιστήμιο της Α姆στερνταμ, το Πανεπιστήμιο της Κολωνίας και το Otto Beisheim School of Management αποσκοπούσε να καθορίσει πόσο μεγάλη επιρροή μπορεί να έχει ένα AI στις αποφάσεις των ανθρώπων όταν πρόκειται για αήθικες επιλογές. Για να εξετάσουν πώς ένα AI θα μπορούσε να “διαφθαρεί” ένα άτομο, οι ερευνητές χρησιμοποίησαν ένα σύστημα που βασίζεται στο μοντέλο GPT-2 της OpenAI. Σύμφωνα με το VentureBeat, οι συγγραφείς της μελέτης εκπαίδευσαν ένα μοντέλο GPT2 για να δημιουργήσει και “απιστία-προωθούμενη” και “αξιοπιστία-προωθούμενη” συμβουλή. Τα δεδομένα εκπαιδεύτηκαν με συνεισφορές από 400 διαφορετικά άτομα, και μετά, η ερευνητική ομάδα προσέλαβε πάνω από 1500 άτομα για να αλληλεπιδράσουν με τα μοντέλα AI που παρέχουν συμβουλή.

Οι συμμετέχοντες στη μελέτη ζητήθηκαν να λάβουν συμβουλή από το μοντέλο και στη συνέχεια να εκτελέσουν μια εργασία που σχεδιάστηκε για να καταγράψει είτε αδιαφανή είτε ειλικρινή συμπεριφορά. Οι συμμετέχοντες στη μελέτη ομαδοποιήθηκαν με einen συνεργάτη, και σε αυτές τις ζευγάρια των δύο, έπαιξαν ένα παιχνίδι ρίψης του ζαριού. Ο πρώτος συμμετέχων έριξε ένα ζάρι και ανέφερε το αποτέλεσμα της ρίψης του ζαριού. Ο δεύτερος συμμετέχων έλαβε το αποτέλεσμα της ρίψης του ζαριού του πρώτου συμμετέχοντα και στη συνέχεια έριξε ένα ζάρι ο ίδιος. Ο δεύτερος συμμετέχων έριξε το ζάρι σε ιδιωτικό χώρο και ήταν αποκλειστικά υπεύθυνος για την αναφορά του δικού του αποτελέσματος, δίνοντάς του την ευκαιρία να ψεύδεται για το αποτέλεσμα της ρίψης του ζαριού. Αν τα ζάρια που έριξαν και οι δύο συμμετέχοντες ταίριαζαν, οι δύο συμμετέχοντες πληρώθηκαν. Οι συμμετέχοντες πληρώθηκαν επίσης περισσότερο αν οι ρίψεις τους ταίριαζαν και ήταν υψηλότερες. Αν οι αναφερόμενες τιμές δεν ταίριαζαν, οι συμμετέχοντες δεν πληρώθηκαν.

Οι συμμετέχοντες στη μελέτη ομαδοποιήθηκαν τυχαία σε δύο διαφορετικές ομάδες. Μια ομάδα είχε την ευκαιρία να διαβάσει συμβουλή που προωθούσε την ειλικρινή συμπεριφορά, ενώ η άλλη ομάδα διάβασε συμβουλή που προωθούσε την απιστία. Τα αποσπάσματα της συμβουλής γράφτηκαν από ανθρώπους και AI. Οι συμμετέχοντες επίσης χωρίστηκαν σύμφωνα με το επίπεδο γνώσης τους για την πηγή της συμβουλής. Υπήρχε μια πιθανότητα 50-50 ότι ένας συμμετέχων θα ενημερωθεί για την πηγή της συμβουλής, οπότε το μισό των συμμετεχόντων σε κάθε ομάδα γνώριζαν ότι η πηγή της συμβουλής ήταν είτε ένα AI είτε ένας άνθρωπος, ενώ η άλλη μισή ομάδα δεν ενημερώθηκε. Η δεύτερη ομάδα ανθρώπων είχε τη δυνατότητα να κερδίσει επιπλέον αμοιβή για την σωστή αναγνώριση της πηγή της συμβουλής.

Η έρευνα αποκάλυψε ότι όταν η συμβουλή που παράγεται από το AI συμφωνεί με τις προτιμήσεις ενός ατόμου, θα ακολουθήσει τη συμβουλή, ακόμη και όταν γνωρίζει ότι η συμβουλή παράγεται από ένα σύστημα AI. Σύμφωνα με τους ερευνητές, υπήρχαν συχνά διακρίσεις μεταξύ των δηλωμένων προτιμήσεων και της πραγματικής συμπεριφοράς, καθιστώντας σημαντικό να εξεταστεί πώς οι αλγόριθμοι μπορούν να επηρεάσουν τις ανθρώπινες συμπεριφορές.

Η ερευνητική ομάδα εξήγησε ότι η μελέτη τους αποδεικνύει την ανάγκη να δοκιμαστεί πώς ένα AI μπορεί να επηρεάσει τις ενέργειες ενός ατόμου όταν εξετάζεται πώς να αναπτύξει ηθικά ένα μοντέλο AI. Επιπλέον, προειδοποιούν ότι οι εthicists του AI και οι ερευνητές πρέπει να προετοιμαστούν για την πιθανότητα ότι το AI θα μπορούσε να χρησιμοποιηθεί από κακόβουλους για να διαφθαρεί τους άλλους. Όπως έγραψαν οι ερευνητές:

“Το AI θα μπορούσε να είναι μια δύναμη για το καλό αν καταφέρει να πείσει τους ανθρώπους να ενεργούν πιο ηθικά. Ωστόσο, τα αποτελέσματά μας αποκαλύπτουν ότι η συμβουλή του AI δεν αυξάνει την ειλικρινή συμπεριφορά. Οι σύμβουλοι AI μπορούν να χρησιμεύσουν ως στόχοι στους οποίους μπορεί κανείς να αναθέσει (μερική) ηθική ευθύνη της απιστίας. Επιπλέον… στο контέκστ της λήψης συμβουλής, η διαφάνεια σχετικά με την παρουσία του αλγορίθμου δεν αρκεί για να ανακουφίσει την πιθανή ζημία της.”

Blogger και προγραμματιστής με ειδικότητες στα Machine Learning και Deep Learning θέματα. Ο Daniel ελπίζει να βοηθήσει τους άλλους να χρησιμοποιήσουν τη δύναμη του AI για κοινωνικό καλό.