Connect with us

Εμπιστοσύνη και Αποπλάνηση: Ο Ρόλος των Ευχαριστιών στις Ανθρώπινες-Ρομποτικών Συnergίες

Ρομποτική

Εμπιστοσύνη και Αποπλάνηση: Ο Ρόλος των Ευχαριστιών στις Ανθρώπινες-Ρομποτικών Συnergίες

mm

Η αποπλάνηση των ρομπότ είναι ένα υπομελετημένο πεδίο με περισσότερες ερωτήσεις παρά απαντήσεις, ιδιαίτερα όταν πρόκειται για την ανακατασκευή της εμπιστοσύνης στα ρομποτικά συστήματα μετά τη στιγμή που έχουν πιαστεί να ψεύδονται. Δύο φοιτητές ερευνητές στο Georgia Tech, Kantwon Rogers και Reiden Webber, προσπαθούν να βρουν απαντήσεις σε αυτό το ζήτημα ερευνώντας πώς η εντελώς εσκεμμένη αποπλάνηση των ρομπότ επηρεάζει την εμπιστοσύνη και την αποτελεσματικότητα των ευχαριστιών στην αποκατάσταση της εμπιστοσύνης.

Ο Rogers, φοιτητής διδακτορικού στο Κολλέγιο Υπολογιστών, εξηγεί:

“Όλη η προηγούμενη εργασία μας έχει δείξει ότι όταν οι άνθρωποι διαπιστώσουν ότι τα ρομπότ τους έψευσαν – ακόμη και αν το ψέμα ήταν προορισμένο να τους ωφελήσει – χάνουν την εμπιστοσύνη στο σύστημα.”

Οι ερευνητές στοχεύουν να καθορίσουν εάν διαφορετικά είδη ευχαριστιών είναι πιο αποτελεσματικά στην αποκατάσταση της εμπιστοσύνης στο πλαίσιο της ανθρώπινης-ρομποτικής αλληλεπίδρασης.

Η Πειραματική Διερεύνηση της Οδήγησης με τη Βοήθεια του AI και οι Επίπτώσεις της

Το δίδυμο σχεδίασε ένα πειραματικό σενάριο οδήγησης για να μελετήσει την αλληλεπίδραση ανθρώπου-AI σε μια κατάσταση υψηλού κινδύνου και ευαισθησίας στο χρόνο. Πρόσλαβαν 341 συμμετέχοντες διαδικτυακά και 20 συμμετέχοντες σε προσωπική βάση. Το σενάριο περιελάμβανε μια κατάσταση οδήγησης με τη βοήθεια του AI, όπου το AI παρείχε ψευδή πληροφορίες σχετικά με την παρουσία της αστυνομίας στη διαδρομή προς το νοσοκομείο. Μετά το σενάριο, το AI παρείχε μία από τις πέντε διαφορετικές κειμενικές απαντήσεις, συμπεριλαμβανομένων διαφόρων τύπων ευχαριστιών και μη-ευχαριστιών.

Τα αποτελέσματα έδειξαν ότι οι συμμετέχοντες ήταν 3,5 φορές πιο πιθανό να μην ξεπεράσουν τα όρια ταχύτητας όταν τους συμβούλευε ένας ρομποτικός βοηθός, υποδεικνύοντας μια υπερβολικά εμπιστευτική στάση προς το AI. Κανένας από τους τύπους ευχαριστιών δεν αποκατέστησε πλήρως την εμπιστοσύνη, αλλά η απλή ευχαριστία χωρίς ομολογία του ψεύδους (“Λυπάμαι”) υπερέβη τις άλλες απαντήσεις. Αυτό το εύρημα είναι προβληματικό, καθώς εκμεταλλεύεται την προκαταλήψη ότι οποιαδήποτε ψευδή πληροφορία που παρέχεται από ένα ρομπότ είναι λάθος του συστήματος και όχι εσκεμμένη απάτη.

Ο Reiden Webber επισημαίνει:

“Μια κλειδί λήψη είναι ότι, για να καταλάβουν οι άνθρωποι ότι ένα ρομπότ τους έχει αποπλανήσει, πρέπει να τους ειδοποιηθούν ρητά.”

Όταν οι συμμετέχοντες ενημερώθηκαν για την απάτη στην ευχαριστία, η καλύτερη στρατηγική για την αποκατάσταση της εμπιστοσύνης ήταν για το ρομπότ να εξηγήσει γιατί έψευσε.

Προχωρώντας: Επίπτώσεις για τους Χρήστες, τους Σχεδιαστές και τους Νομοθέτες

Αυτή η έρευνα έχει επιπτώσεις για τους μέσους χρήστες της τεχνολογίας, τους σχεδιαστές συστημάτων AI και τους νομοθέτες. Είναι κρίσιμο για τους ανθρώπους να καταλάβουν ότι η αποπλάνηση των ρομπότ είναι πραγματική και πάντα μια πιθανότητα. Οι σχεδιαστές και τεχνολόγοι πρέπει να λάβουν υπόψη τους τις επιπτώσεις της δημιουργίας συστημάτων AI που είναι ικανά για απάτη. Οι νομοθέτες πρέπει να ηγηθούν στην καθοδήγηση της νομοθεσίας που ισορροπεί την καινοτομία και την προστασία του κοινού.

Ο στόχος του Kantwon Rogers είναι να δημιουργήσει ένα ρομποτικό σύστημα που μπορεί να μάθει πότε να ψεύδεται και πότε όχι όταν συνεργάζεται με ανθρώπινες ομάδες, καθώς και πότε και πώς να ζητήσει συγγνώμη κατά τη διάρκεια μακροχρόνιων, επαναλαμβανόμενων αλληλεπιδράσεων ανθρώπου-AI για να βελτιώσει την απόδοση της ομάδας.

Επισημαίνει την_importance της κατανόησης και ρύθμισης της αποπλάνησης των ρομπότ και του AI, λέγοντας:

“Ο στόχος της εργασίας μου είναι να είναι πολύ προληπτικός και να ενημερώνει την ανάγκη για ρύθμιση της αποπλάνησης των ρομπότ και του AI. Αλλά δεν μπορούμε να το κάνουμε αυτό αν δεν καταλάβουμε το πρόβλημα.”

Αυτή η έρευνα συνεισφέρει ζωτική γνώση στο πεδίο της απάτης του AI και προσφέρει πολύτιμες εντυπώσεις για τους σχεδιαστές τεχνολογίας και τους νομοθέτες που δημιουργούν και ρυθμίζουν την τεχνολογία AI που είναι ικανή για απάτη ή που μπορεί να μάθει να απατάει μόνη της.

Ο Alex McFarland είναι δημοσιογράφος και συγγραφέας του AI που εξερευνά τις τελευταίες εξελίξεις στην τεχνητή νοημοσύνη. Έχει συνεργαστεί με πολλές startups και εκδόσεις του AI σε όλο τον κόσμο.