Connect with us

Σταματώντας τον AI από το ΣπινNING Ιστορίες: Ένας Οδηγός για την Πρόληψη των Hallucinations

Ηγέτες σκέψης

Σταματώντας τον AI από το ΣπινNING Ιστορίες: Ένας Οδηγός για την Πρόληψη των Hallucinations

mm

Ο AI επανακαθορίζει τον τρόπο με τον οποίο λειτουργεί几乎 κάθε βιομηχανία. Κάνει μας πιο αποτελεσματικούς, πιο παραγωγικούς και – όταν εφαρμόζεται σωστά – καλύτερους στις δουλειές μας συνολικά. Αλλά καθώς η εξάρτησή μας από αυτή τη νέα τεχνολογία αυξάνεται γρήγορα, πρέπει να θυμόμαστε έναν απλό факт: Ο AI δεν είναι αλάθητος. Οι έξοδοι του δεν πρέπει να λαμβάνονται με την πίστη ότι, όπως και οι άνθρωποι, ο AI μπορεί να κάνει λάθη.

Τα λάθη αυτά τα ονομάζουμε “hallucinations του AI”. Τέτοιες ατυχίες κυμαίνονται από την απάντηση σε ένα μαθηματικό πρόβλημα λανθασμένα έως την παροχή ακριβών πληροφοριών για τις κυβερνητικές πολιτικές. Σε υψηλά ρυθμιζόμενες βιομηχανίες, οι hallucinations μπορούν να οδηγήσουν σε ακριβές πρόστιμα και νομικά προβλήματα, όχι να αναφέρουμε μη ικανοποιημένους πελάτες.

Η συχνότητα των hallucinations του AI πρέπει επομένως να είναι αιτία ανησυχίας: εκτιμάται ότι τα σύγχρονα μεγάλα μοντέλα γλωσσών (LLMs) hallucinateどこ από 1% έως 30% του χρόνου. Αυτό οδηγεί σε εκατοντάδες ψευδείς απαντήσεις που παράγονται καθημερινά, που σημαίνει ότι οι επιχειρήσεις που επιθυμούν να εκμεταλλευτούν αυτή τη τεχνολογία πρέπει να είναι εξαιρετικά επιλεκτικές όταν επιλέγουν ποια εργαλεία να εφαρμόσουν.

Ας εξετάσουμε γιατί συμβαίνουν οι hallucinations του AI, τι είναι στο στοίχημα και πώς μπορούμε να τα αναγνωρίσουμε και να τα διορθώσουμε.

Γκράβας μέσα, γκράβας έξω

Θυμάσαι να παίζεις το παιχνίδι “τηλέφωνο” ως παιδί; Πώς η αρχική φράση θα μεταμορφωθεί καθώς θα περνούσε από παίκτη σε παίκτη, οδηγώντας σε μια完全 διαφορετική δήλωση μέχρι να φτάσει στο τέλος του κύκλου;

Ο τρόπος με τον οποίο ο AI μαθαίνει από τις εισόδους του είναι παρόμοιος. Οι απαντήσεις που παράγουν τα LLMs είναι τόσο καλές όσο και οι πληροφορίες που τους δίνονται, που σημαίνει ότι λανθασμένος контекst μπορεί να οδηγήσει στη δημιουργία και διάδοση ψευδών πληροφοριών. Αν ένα σύστημα AI είναι κατασκευασμένο με δεδομένα που είναι ανακριβή, παλιά ή προκατειλημμένα, τότε οι έξοδοι του θα αντανακλούν αυτό.

Ως εκ τούτου, ένα LLM είναι τόσο καλό όσο και οι εισόδους του, ιδιαίτερα όταν υπάρχει έλλειψη ανθρώπινης παρέμβασης ή εποπτείας. Όσο περισσότερες αυτονομικές λύσεις AI προσφέρονται, είναι κρίσιμο να παρέχουμε εργαλεία με τον σωστό контекst δεδομένων για να αποφευχθεί η πρόκληση hallucinations. Χρειαζόμαστε αυστηρή εκπαίδευση αυτών των δεδομένων και/ή τη δυνατότητα να οδηγούμε τα LLMs με τέτοιο τρόπο ώστε να απαντούν μόνο από τον контекst που τους παρέχεται, αντί να τραβούν πληροφορίες από οπουδήποτε στο διαδίκτυο.

Γιατί οι hallucinations έχουν σημασία;

Για τις επιχειρήσεις που ασχολούνται με πελάτες, η ακρίβεια είναι τα πάντα. Αν οι υπάλληλοι βασίζονται στον AI για εργασίες όπως η σύνθεση δεδομένων πελάτη ή η απάντηση ερωτημάτων πελάτη, πρέπει να εμπιστεύονται ότι οι απαντήσεις που παράγουν αυτά τα εργαλεία είναι ακριβείς.

Αλλιώς, οι επιχειρήσεις κινδυνεύουν να υποστούν ζημιά στην φήμη τους και την πίστη των πελάτων. Αν οι πελάτες λαμβάνουν ανεπαρκείς ή ψευδείς απαντήσεις από ένα chatbot, ή αν αφήνονται να περιμένουν ενώ οι υπάλληλοι ελέγχουν τις εξόδους του chatbot, μπορεί να πάρουν την επιχείρησή τους αλλού. Οι άνθρωποι δεν πρέπει να ανησυχούν για το αν οι επιχειρήσεις με τις οποίες ασχολούνται παρέχουν ψευδείς πληροφορίες – θέλουν γρήγορη και αξιόπιστη υποστήριξη, που σημαίνει ότι η λήψη αυτών των互動 είναι της υψηλότερης σημασίας.

Αντιμετώπιση των hallucinations του AI

Συμβουλή: Δυναμική Θεωρία Σημασίας (DMT), η έννοια ότι μια κατανόηση μεταξύ δύο προσώπων – σε αυτή την περίπτωση ο χρήστης και ο AI – ανταλλάσσονται. Αλλά, οι περιορισμοί της γλώσσας και της γνώσης των θεμάτων προκαλούν μια μη συναίσθηση στην ερμηνεία της απάντησης.

Στην περίπτωση των απαντήσεων που παράγονται από τον AI, είναι δυνατό ότι οι υποκείμενες αλγόριθμοι δεν είναι ακόμη πλήρως εξοπλισμένοι για να ερμηνεύσουν ή να παράγουν κείμενο με τρόπο που να συμμορφώνεται με τις προσδοκίες που έχουμε ως άνθρωποι. Αυτή η διαφορά μπορεί να οδηγήσει σε απαντήσεις που μπορεί να φαίνονται ακριβείς στην επιφάνεια αλλά τελικά να λείπουν του βάθους ή της νюάνς που απαιτείται για πραγματική κατανόηση.

Επιπλέον, τα περισσότερα γενικούς LLMs τραβούν πληροφορίες μόνο από περιεχόμενο που είναι δημόσια διαθέσιμο στο διαδίκτυο. Οι επιχειρηματικές εφαρμογές του AI λειτουργούν καλύτερα όταν ενημερώνονται από δεδομένα και πολιτικές που είναι συγκεκριμένες για τις μεμονωμένες βιομηχανίες και επιχειρήσεις. Τα μοντέλα μπορούν επίσης να βελτιωθούν με άμεση ανθρώπινη ανάδραση – ιδιαίτερα με λύσεις που σχεδιάζονται για να ανταποκρίνουν τον τόνο και τη σύνταξη.

Τέτοια εργαλεία πρέπει επίσης να ελέγχονται αυστηρά πριν γίνουν consumer-facing. Αυτό είναι ένα κρίσιμο μέρος της πρόληψης των hallucinations του AI. Ολόκληρη η ροή πρέπει να ελέγχεται χρησιμοποιώντας συνομιλίες με βάση τα LLMs που παίζουν το ρόλο ενός προσώπου. Αυτό επιτρέπει στις επιχειρήσεις να υποθέσουν καλύτερα την γενική επιτυχία των συνομιλιών με ένα μοντέλο AI πριν το κυκλοφορήσουν στον κόσμο.

Είναι απαραίτητο και για τους développers και τους χρήστες της τεχνολογίας AI να παραμείνουν ενήμεροι για τη δυναμική θεωρία σημασίας στις απαντήσεις που λαμβάνουν, καθώς και για τη δυναμική της γλώσσας που χρησιμοποιείται στην είσοδο. Θυμήσου, ο контекst είναι το κλειδί. Και, ως άνθρωποι, η większość του контекst μας κατανοείται μέσω ανεπίσημων μέσων, είτε μέσω σώματος, κοινωνικών τάσεων – ακόμη και τον τόνο μας. Jako άνθρωποι, έχουμε τη δυνατότητα να hallucinate σε απάντηση σε ερωτήσεις. Αλλά, στην τρέχουσα μας εκδοχή του AI, η ανθρώπινη κατανόηση μας δεν είναι τόσο εύκολα контεκστοποιημένη, οπότε πρέπει να είμαστε πιο κριτικοί για τον контекst που παρέχουμε στη γραφή.

Αρκεί να πούμε – όχι όλα τα μοντέλα AI είναι ισότιμα. Όσο η τεχνολογία εξελίσσεται για να ολοκληρώσει ολοένα και πιο σύνθετες εργασίες, είναι κρίσιμο για τις επιχειρήσεις που επιθυμούν να υλοποιήσουν να αναγνωρίσουν εργαλεία που θα βελτιώσουν τις αλληλεπιδράσεις και τις εμπειρίες των πελάτων αντί να τις απομακρύνουν.

Η ευθύνη δεν είναι μόνο στους παρόχους λύσεων να διασφαλίσουν ότι έχουν κάνει όλα τα δυνατά για να ελαχιστοποιήσουν την πιθανότητα να συμβούν hallucinations. Οι πιθανικοί αγοραστές έχουν το ρόλο τους να παίξουν επίσης. Βάζοντας προτεραιότητα σε λύσεις που είναι αυστηρά εκπαιδευμένες και ελεγχμένες και μπορούν να μάθουν από ιδιοκτησιακά δεδομένα (αντί από οτιδήποτε και οπουδήποτε στο διαδίκτυο), οι επιχειρήσεις μπορούν να κάνουν το μέγιστο από τις επενδύσεις τους σε AI για να ρυθμίσουν τους υπαλλήλους και τους πελάτες για επιτυχία.

Ο Dan Balaceanu, Chief Product Officer tại DRUID AI, έχει εμπειρία στη διαχείριση τμημάτων ανάπτυξης και διαδικασιών εντός επιχειρηματικών οργανισμών. Είναι ένα εξαιρετικά ικανό Solutions Architect και Technical Project Manager με περισσότερα από 15 χρόνια εμπειρίας στην ηγεσία μεσομεγέθων έργων ανάπτυξης και εφαρμογής, με συλλογή απαιτήσεων πελατών, ανάλυση συστημάτων, ανάπτυξη εφαρμογών και δοκιμές, σε ομάδες που επικεντρώνονται στους πελάτες.

Γνωστοποίηση διαφημιζόμενων: Το Unite.AI δεσμεύεται σε αυστηρά συντακτικά πρότυπα για την παροχή ακριβών πληροφοριών και ειδήσεων στους αναγνώστες μας. Ενδέχεται να λάβουμε αποζημίωση όταν κάνετε κλικ σε συνδέσμους προς προϊόντα που έχουμε αξιολογήσει.