Τεχνητή νοημοσύνη
Το Ινστιτούτο AI Now Προειδοποιεί για Κατάχρηση Λογισμικού Ανίχνευσης Συναισθήματος και Άλλες Ηθικές Προβλήματα

Το Ινστιτούτο AI Now έχει κυκλοφορήσει μια έκθεση που παρεμβάλλεται στους νομοθέτες και άλλα ρυθμιστικά όργανα να θέσουν σκληρά όρια στη χρήση τεχνολογίας ανίχνευσης συναισθήματος, απαγορεύοντας τη χρήση της σε περιπτώσεις όπου μπορεί να χρησιμοποιηθεί για να ληφθούν σημαντικές αποφάσεις όπως η πρόσληψη εργαζομένων ή η αποδοχή φοιτητών. Επιπλέον, η έκθεση περιείχε eine σειρά από άλλες προτάσεις σχετικά με μια σειρά θεμάτων στο πεδίο της τεχνολογίας AI.
Το Ινστιτούτο AI Now είναι ένα ερευνητικό ινστιτούτο που базίζεται στο NYU, με αποστολή τη μελέτη της επίδρασης της τεχνολογίας AI στην κοινωνία. Το Ινστιτούτο AI Now κυκλοφορεί μια ετήσια έκθεση που παρουσιάζει τα ευρήματά του σχετικά με την κατάσταση της έρευνας για την τεχνολογία AI και τις ηθικές επιπτώσεις της χρήσης της. Όπως ανέφερε το BBC, η φετινή έκθεση ασχολήθηκε με θέματα όπως η αλγοριθμική διακρίση, η έλλειψη đa dạngίας στην έρευνα για την τεχνολογία AI και τα προβλήματα εργασίας.
Η αναγνώριση συναισθήματος, ο τεχνικός όρος για τους αλγόριθμους ανίχνευσης συναισθήματος, είναι ένα γρήγορα εξελισσόμενο πεδίο της έρευνας για την τεχνολογία AI. Những που χρησιμοποιούν την τεχνολογία για να ληφθούν αποφάσεις συχνά ισχυρίζονται ότι τα συστήματα μπορούν να εξάγουν αξιόπιστες πληροφορίες για τις συναισθηματικές καταστάσεις των ανθρώπων αναλύοντας τις μικροεκφράσεις, μαζί με άλλες ενδείξεις όπως τον τόνο της φωνής και τη σωματική γλώσσα. Το Ινστιτούτο AI Now σημειώνει ότι η τεχνολογία χρησιμοποιείται σε eine σειρά από εφαρμογές, όπως η καθορισμός ποιος να προσληφθεί, η καθορισμός των τιμών των ασφαλειών και η παρακολούθηση εάν οι μαθητές προσεχτικά στην τάξη.
Η καθηγήτρια Kate Crawford, συνιδρύτρια του Ινστιτούτου AI Now, εξήγησε ότι συχνά πιστεύεται ότι τα ανθρώπινα συναισθήματα μπορούν να προβλεφθούν με ακρίβεια με σχετικά απλά μοντέλα. Η Crawford ανέφερε ότι κάποιες εταιρείες βασίζουν την ανάπτυξη του λογισμικού τους στη δουλειά του Paul Ekman, ενός ψυχολόγου που υποστήριξε ότι υπάρχουν μόνο έξι βασικοί τύποι συναισθημάτων που καταγράφονται στο πρόσωπο. Ωστόσο, η Crawford σημειώνει ότι από τότε που η θεωρία του Ekman εισήχθη, μελέτες έχουν δείξει ότι υπάρχει πολύ μεγαλύτερη ποικιλία στις εκφράσεις του προσώπου και ότι οι εκφράσεις μπορούν να αλλάξουν σε διαφορετικές καταστάσεις και πολιτισμούς πολύ εύκολα.
“Την ίδια στιγμή που αυτά τα τεχνολογικά μέσα αναπτύσσονται, μεγάλος αριθμός μελετών δείχνει ότι δεν υπάρχει… καμία ουσιαστική απόδειξη ότι οι άνθρωποι έχουν αυτή τη σταθερή σχέση μεταξύ του συναισθήματος που νιώθουν και του τρόπου που φαίνεται το πρόσωπό τους”, ανέφερε η Crawford στο BBC.
Για αυτόν τον λόγο, το Ινστιτούτο AI Now υποστηρίζει ότι μεγάλο μέρος της αναγνώρισης συναισθήματος βασίζεται σε αξιόπιστες θεωρίες και αμφισβητούμενη επιστήμη. Συνεπώς, τα συστήματα ανίχνευσης συναισθήματος δεν πρέπει να αναπτυχθούν μέχρι να γίνει περισσότερη έρευνα και ότι “οι κυβερνήσεις πρέπει να απαγορεύσουν ρητά τη χρήση της αναγνώρισης συναισθήματος σε διαδικασίες λήψης αποφάσεων υψηλού κινδύνου”. Το Ινστιτούτο AI Now υποστηρίζει ότι πρέπει especially να σταματήσουμε τη χρήση της τεχνολογίας σε “ευαίσθητες κοινωνικές και πολιτικές συνθήκες”, συνθήκες που περιλαμβάνουν την απασχόληση, την εκπαίδευση και την αστυνόμευση.
Αφού τουλάχιστον μια εταιρεία ανάπτυξης τεχνολογίας AI που ειδικεύεται στην αναγνώριση συναισθήματος, η Emteq, συμφώνησε ότι πρέπει να υπάρξει ρύθμιση που να προλαμβάνει την κατάχρηση της τεχνολογίας. Ο ιδρυτής της Emteq, Charles Nduka, ανέφερε στο BBC ότι ενώ τα συστήματα AI μπορούν να αναγνωρίσουν με ακρίβεια διαφορετικές εκφράσεις του προσώπου, δεν υπάρχει ένα απλό χάρτη από έκφραση σε συναισθήμα. Ο Nduka εξέφρασε ανησυχία σχετικά με τη ρύθμιση να πάει πολύ μακριά και να σβήσει την έρευνα, σημειώνοντας ότι εάν “τα πράγματα θα απαγορευτούν, είναι πολύ σημαντικό ότι οι άνθρωποι δεν θα ρίχνουν το μωρό με το νερό του μπάνιου”.
Όπως αναφέρει το NextWeb, το Ινστιτούτο AI Now πρότεινε επίσης μια σειρά από άλλες πολιτικές και κανόνες που πρέπει να οδηγήσουν την βιομηχανία της τεχνολογίας AI στο μέλλον.
Το Ινστιτούτο AI Now τόνισε την ανάγκη η βιομηχανία της τεχνολογίας AI να κάνει τους χώρους εργασίας πιο διαφορετικούς και ότι οι εργαζόμενοι πρέπει να εγγυηθούν το δικαίωμα να εκφράσουν τις ανησυχίες τους σχετικά με την εισβολή και την εκμετάλλευση της τεχνολογίας AI. Οι τεχνολογικοί εργαζόμενοι πρέπει επίσης να έχουν το δικαίωμα να γνωρίζουν εάν οι προσπάθειές τους χρησιμοποιούνται για να κατασκευάσουν επιζήμιες ή ανήθικες εργασίες.
Το Ινστιτούτο AI Now πρότεινε επίσης ότι οι νομοθέτες πρέπει να λάβουν μέτρα για να απαιτήσουν ενημερωμένη συναίνεση για τη χρήση οποιασδήποτε δεδομένων που προέρχονται από υγεία-σχετική τεχνολογία AI. Πέρα από αυτό, συνιστάται ότι η προστασία δεδομένων πρέπει να λαμβάνει πιο σοβαρά και ότι οι πολιτείες πρέπει να εργαστούν για να σχεδιάσουν νόμους για την προστασία δεδομένων βιομετρικών δεδομένων που καλύπτουν τόσο τις ιδιωτικές όσο και τις δημόσιες οντότητες.
Τέλος, το ινστιτούτο πρότεινε ότι η βιομηχανία της τεχνολογίας AI πρέπει να αρχίσει να σκέφτεται και να ενεργεί πιο παγκοσμίως, προσπαθώντας να αντιμετωπίσει τις μεγαλύτερες πολιτικές, κοινωνικές και οικολογικές επιπτώσεις της τεχνολογίας AI. Συνιστάται ότι πρέπει να existει μια σημαντική προσπάθεια για να λογαριαστούν οι επιπτώσεις της τεχνολογίας AI σχετικά με τη γεωγραφική μετατόπιση και το κλίμα και ότι οι κυβερνήσεις πρέπει να κάνουν την επίδραση της βιομηχανίας της τεχνολογίας AI στο κλίμα δημόσια διαθέσιμη.












