Ηθική
Ηθικές Συμμετοχές κατά την Ανάπτυξη του AI για Αναγνώριση Συναισθήματος

Η τεχνητή νοημοσύνη για την ρύθμιση του συναισθήματος είναι μια από τις τελευταίες τεχνολογικές προόδους στον τομέα της μηχανικής μάθησης. Αν και δείχνει μεγάλο δυναμικό, ηθικά ζητήματα είναι έτοιμα να επηρεάσουν το ποσοστό υιοθέτησής του και τη μακροζωία. Μπορούν οι développers του AI να τα υπερβούν;
Τι είναι το AI Αναγνώρισης Συναισθήματος;
Το AI αναγνώρισης συναισθήματος είναι ένα είδος μοντέλου μηχανικής μάθησης. Συχνά βασίζεται σε τεχνολογία οπτικής που καταγράφει και αναλύει τις εκφράσεις του προσώπου για να αποκρυπτογραφήσει τις διαθέσεις σε εικόνες και βίντεο. Ωστόσο, μπορεί επίσης να λειτουργήσει σε ηχητικά αποσπάσματα για να καθορίσει τον τόνο της φωνής ή γραπτό κείμενο για να αξιολογήσει τη στάση της γλώσσας.
Αυτό το είδος αλγορίθμου αντιπροσωπεύει μια φασcinující πρόοδο στον τομέα της ΤΝ因为, μέχρι τώρα, τα μοντέλα δεν ήταν σε θέση να κατανοήσουν τα ανθρώπινα συναισθήματα. Ενώ τα μεγάλα μοντέλα γλώσσας όπως το ChatGPT μπορούν να μιμούνται διαθέσεις και προσωπικότητες πειστικά, μπορούν μόνο να συνδέσουν логικά τις λέξεις — δεν μπορούν να αισθανθούν τίποτα και δεν εμφανίζουν συναισθηματική νοημοσύνη. Ενώ ένα μοντέλο αναγνώρισης συναισθήματος δεν είναι ικανό να έχει συναισθήματα, μπορεί ακόμα να τα ανιχνεύσει και να τα καταγράψει. Αυτή η εξέλιξη είναι σημαντική porque σηματοδοτεί ότι το AI μπορεί σύντομα να κατανοήσει και να δείξει αληθινά χαρά, λύπη ή θυμό. Τεχνικές προόδους όπως αυτές δείχνουν επιταχυνόμενη πρόοδο.
Χρήσεις του AI Αναγνώρισης Συναισθήματος
Επιχειρήσεις, εκπαιδευτικοί, σύμβουλοι και επαγγελματίες ψυχικής υγείας είναι einige από τις ομάδες που μπορούν να χρησιμοποιήσουν το AI για αναγνώριση συναισθήματος.
Αξιολόγηση Κινδύνου στο Γραφείο
Οι ομάδες ανθρώπινου δυναμικού μπορούν να χρησιμοποιήσουν αλγορίθμους για να διεξαγάγουν ανάλυση συναισθήματος σε ηλεκτρονική αλληλογραφία ή σε εσωτερικές συνομιλίες μεταξύ μελών της ομάδας. Εναλλακτικά, μπορούν να ενσωματώσουν τον αλγόριθμό τους στο σύστημα επιτήρησης ή οπτικής. Οι χρήστες μπορούν να παρακολουθούν τη διάθεση για να υπολογίσουν μετρήσεις όπως ο κίνδυνος αποχώρησης, ο ρυθμός εξουθένωσης και η ικανοποίηση των εργαζομένων.
Βοήθεια στους Πράκτορες Εξυπηρέτησης Πελατών
Οι λιανοπωλητές μπορούν να χρησιμοποιήσουν εσωτερικούς πράκτορες εξυπηρέτησης πελατών του AI για τους τελικούς χρήστες ή εικονικούς βοηθούς για να επιλύσουν καταστάσεις υψηλού στρες.既然 το μοντέλο τους μπορεί να αναγνωρίσει τη διάθεση, μπορεί να προτείνει τεχνικές αποσβέσεων ή να αλλάξει τον τόνο όταν συνειδητοποιήσει ότι ένας καταναλωτής θυμόταν. Αντιμετροί όπως αυτές μπορεί να βελτιώσουν την ικανοποίηση και τη διατήρηση του πελάτη.
Βοήθεια στους Μαθητές στην Τάξη
Οι εκπαιδευτικοί μπορούν να χρησιμοποιήσουν αυτό το AI για να κρατήσουν τους μαθητές από απόσταση από το να μείνουν πίσω. Một startup έχει ήδη χρησιμοποιήσει το εργαλείο του για να μετρήσει τα σημεία των μυών στο πρόσωπο των μαθητών ενώ καταγράφει την ταχύτητά τους και τις βαθμολογίες. Αυτή η μέθοδος καθορίζει τη διάθεσή τους, τη мотίβαση, τις δυνάμεις και τις αδυναμίες. Ο ιδρυτής του startup υποστηρίζει ότι σημειώνουν 10% υψηλότερα στις εξετάσεις όταν χρησιμοποιούν το λογισμικό.
Διεξαγωγή Εσωτερικής Έρευνας Αγοράς
Οι επιχειρήσεις μπορούν να διεξαγάγουν εσωτερική έρευνα αγοράς χρησιμοποιώντας ένα μοντέλο αναγνώρισης συναισθήματος. Μπορεί να τους βοηθήσει να κατανοήσουν ακριβώς πώς αντιδρά η στόχευση του κοινού τους στο προϊόν, την υπηρεσία ή το υλικό μάρκετινγκ, δίνοντάς τους πολύτιμες δεδομένα-κίνητες επισημάνσεις. Jako αποτέλεσμα, μπορεί να επιταχύνουν τον χρόνο-στη-αγορά και να αυξήσουν τα έσοδά τους.
Το Πρόβλημα με τη Χρήση του AI για Αναγνώριση Συναισθήματος
Η έρευνα υποδηλώνει ότι η ακρίβεια εξαρτάται σε μεγάλο βαθμό από τις πληροφορίες εκπαίδευσης. Μια ομάδα ερευνών — που προσπάθησε να αποκρυπτογραφήσει τα συναισθήματα από εικόνες — ανέφερε αυτό το概念 όταν το μοντέλο τους έφτασε σε ακρίβεια 92.05% στο σύνολο δεδομένων Japanese Female Facial Expression και 98.13% ακρίβεια στο σύνολο δεδομένων Extended Cohn-Kanade.
Ενώ η διαφορά μεταξύ 92% και 98% μπορεί να φαίνεται αμελητέα, έχει σημασία — αυτή η μικρή διαφορά θα μπορούσε να έχει σημαντικές επιπτώσεις. Για αναφορά, ένας ρυθμός δηλητηρίασης του συνόλου δεδομένων τόσο χαμηλός όσο 0.001% έχει αποδειχθεί αποτελεσματικός στην εγκατάσταση πορτών πίσω από το μοντέλο ή στην προκατάληψη των λανθασμένων ταξινομήσεων. Ακόμη και ένα κλάσμα του ποσοστού είναι σημαντικό.
Επιπλέον, αν και οι μελέτες φαίνονται υποσχόμενες — οι ρυθμοί ακρίβειας πάνω από 90% δείχνουν δυναμικό — οι ερευνητές τις διεξάγουν σε ελεγχόμενα περιβάλλοντα. Στο πραγματικό κόσμο, θολές εικόνες, ψεύτικες εκφράσεις του προσώπου, κακές γωνίες και λεπτές συναισθήματα είναι πολύ πιο συχνές. Με άλλα λόγια, το AI μπορεί να μην είναι σε θέση να εκτελεστεί σταθερά.
Η Τρέχουσα Κατάσταση του AI Αναγνώρισης Συναισθήματος
Η αλγορίθμικη ανάλυση συναισθήματος είναι η διαδικασία της χρήσης ενός αλγορίθμου για να καθορίσει αν ο τόνος του κειμένου είναι θετικός, ουδέτερος ή αρνητικός. Αυτή η τεχνολογία είναι αμφισβητούμενο το θεμέλιο για τα σύγχρονα μοντέλα ανίχνευσης συναισθήματος, поскольку άνοιξε τον δρόμο για αλγορίθμικες αξιολογήσεις διαθέσεων. Παρόμοιες τεχνολογίες όπως το λογισμικό αναγνώρισης προσώπου έχουν επίσης συνεισφέρει στην πρόοδο.
Σήμερα, τα αλγόριθμοι μπορούν κυρίως να ανιχνεύσουν μόνο απλές διαθέσεις όπως χαρά, λύπη, θυμός, φόβος και έκπληξη με ποικίλους βαθμούς ακρίβειας. Αυτές οι εκφράσεις του προσώπου είναι εγγενείς και παγκόσμιες — που σημαίνει ότι είναι φυσικές και παγκοσμίως κατανοητές —所以 η εκπαίδευση ενός AI για να τις αναγνωρίσει είναι σχετικά απλή.
Επιπλέον, οι βασικές εκφράσεις του προσώπου είναι συχνά υπερβολικές. Οι άνθρωποι ρυτίζουν τις φρυδίες τους όταν θυμώνονται, χμούρουν όταν είναι λυπημένοι, χαμογελούν όταν είναι χαρούμενοι και ανοίγουν τα μάτια τους όταν είναι σοκαρισμένοι. Αυτές οι απλές, δραματικές εκφράσεις είναι εύκολες να διαφοροποιηθούν. Οι πιο σύνθετες συναισθήματα είναι πιο δύσκολο να εντοπιστούν因为 είναι είτε λεπτές είτε συνδυασμός βασικών εκφράσεων.
Καθώς αυτό το υποσύνολο του AI παραμένει σε μεγάλο βαθμό στην έρευνα και ανάπτυξη, δεν έχει προχωρήσει για να καλύψει σύνθετα συναισθήματα όπως η νοσταλγία, η ντροπή, ο πόνος, η ζήλια, η ανακούφιση ή η σύγχυση. Αν και είναι πιθανό να τα καλύψει τελικά, δεν υπάρχει εγγύηση ότι θα είναι σε θέση να τα ερμηνεύσει όλα.
Στην πραγματικότητα, οι αλγόριθμοι μπορεί να μην είναι ποτέ σε θέση να ανταγωνιστούν τους ανθρώπους. Για αναφορά, ενώ το σύνολο δεδομένων του GPT-4 της OpenAI είναι περίπου 1 petabyte, ένα単 cubic χιλιοστό του ανθρώπινου εγκεφάλου περιέχει περίπου 1,4 petabytes δεδομένων. Οι νευροεπιστήμονες δεν μπορούν να κατανοήσουν πλήρως πώς ο εγκέφαλος αντιλαμβάνεται τα συναισθήματα παρά τις δεκαετίες της έρευνας, οπότε η κατασκευή ενός πολύ ακριβούς AI μπορεί να είναι αδύνατο.
Ενώ η χρήση этой τεχνολογίας για αναγνώριση συναισθήματος έχει προηγούμενο, αυτό το πεδίο είναι ακόμα τεχνικά στην παιδική ηλικία. Υπάρχει μια πληθώρα ερευνών για το concept, αλλά λίγα πραγματικά παραδείγματα μεγάλης κλίμακας ανάπτυξης υπάρχουν. Κάποια σημάδια δείχνουν ότι η καθυστερημένη υιοθέτηση μπορεί να οφείλεται σε ανησυχίες σχετικά με την ασυνεπή ακρίβεια και τα ηθικά ζητήματα.
Ηθικές Συμμετοχές για τους Ανάπτυκτες του AI
Σύμφωνα με μια έρευνα, 67% των απαντώντων συμφωνούν ότι το AI πρέπει να ρυθμιστεί περισσότερο. Για να βάλουν τους ανθρώπους στην ησυχία τους, οι développpers πρέπει να ελαττώσουν τις προκαταλήψεις, να βεβαιωθούν ότι τα μοντέλα τους συμπεριφέρονται όπως αναμένεται και να βελτιώσουν τα αποτελέσματα. Αυτές οι λύσεις είναι δυνατές εάν προτεραιότητα δώσουν στις ηθικές συμμετοχές κατά την ανάπτυξη.
1. Συμφωνημένη Συλλογή και Χρήση Δεδομένων
Η συναίνεση είναι όλα σε μια εποχή όπου η ρύθμιση του AI αυξάνεται. Τι συμβαίνει αν οι εργαζόμενοι ανακαλύψουν ότι οι εκφράσεις του προσώπου τους καταγράφονται χωρίς τη γνώση τους; Οι γονείς πρέπει να υπογράψουν την ανάλυση συναισθήματος βασισμένη στην εκπαίδευση ή οι μαθητές μπορούν να αποφασίσουν για τον εαυτό τους;
Οι développpers πρέπει να αποκαλύψουν ρητά ποια πληροφορίες το μοντέλο θα συλλέξει, πότε θα είναι σε λειτουργία, για ποιο σκοπό θα χρησιμοποιηθεί η ανάλυση και ποιος θα έχει πρόσβαση σε αυτά τα λεπτομέρειες. Επιπλέον, πρέπει να περιλαμβάνουν χαρακτηριστικά opt-out ώστε τα άτομα να μπορούν να προσαρμόσουν τις άδειες.
2. Αναλυτική Έξοδος Συναισθήματος με Αναγνωρισμένα Δεδομένα
Η ανωνυμοποίηση των δεδομένων είναι τόσο ένα πρόβλημα ιδιωτικής ζωής όσο και ένα ζήτημα ασφαλείας. Οι développpers πρέπει να ανωνυμοποιήσουν τις πληροφορίες συναισθήματος που συλλέγουν για να προστατεύσουν τα άτομα που συμμετέχουν. Τουλάχιστον, πρέπει να λάβουν υπόψη την κρυπτογράφηση σε ηρεμία.
3. Λήψη Αποφάσεων με Ανθρώπινη Επέμβαση
Ο μόνος λόγος για να χρησιμοποιήσετε το AI για να καθορίσετε την συναισθηματική κατάσταση κάποιου είναι να ενημερώσετε τη λήψη αποφάσεων. Όπως vậy, είτε χρησιμοποιείται σε μια ψυχική ικανότητα είτε σε ένα λιανεμπορικό περιβάλλον, θα επηρεάσει τους ανθρώπους. Οι développpers πρέπει να χρησιμοποιήσουν προστατευτικά με ανθρώπινη επέμβαση για να ελαττώσουν την απροσδόκητη συμπεριφορά.
4. Ανθρώπινη Παράκληση για Έξοδο του AI
Ακόμη και αν ένας αλγόριθμος έχει σχεδόν 100% ακρίβεια, θα παραγάγει ακόμα ψευδείς θετικούς. Λαμβάνοντας υπόψη ότι δεν είναι ασυνήθιστο για τα μοντέλα να επιτύχουν 50% ή 70% — και αυτό χωρίς να αγγίξουν τα ζητήματα προκατάληψης ή ψευδούς ερμηνείας — οι développpers πρέπει να λάβουν υπόψη την υλοποίηση ενός συστήματος ανατροφοδότησης.
Οι άνθρωποι πρέπει να μπορούν να αναθεωρήσουν τι λέει το AI για την συναισθηματική τους κατάσταση και να προσφύγουν εάν πιστεύουν ότι είναι λανθασμένο. Αν και ένα τέτοιο σύστημα θα απαιτούσε φράγματα και μέτρα ευθύνης, θα ελαττώσει τις αντίθετες επιπτώσεις που προκύπτουν από λανθασμένη έξοδο.
Οι Συνέπειες της Παραμέλησης της Ηθικής
Οι ηθικές συμμετοχές πρέπει να είναι προτεραιότητα για τους μηχανικούς του AI, τους développpers της μηχανικής μάθησης και τους ιδιοκτήτες επιχειρήσεων因为 επηρεάζουν τους ίδιους. Λαμβάνοντας υπόψη την αυξανόμενη αβεβαιότητα της δημόσιας γνώμης και την αυστηροποίηση των κανονισμών, οι συνέπειες της παραμέλησης της ηθικής μπορεί να είναι σημαντικές.












