Connect with us

Όταν το «Chatbot» είναι ένα βρόμικο λόγο: 3 παρεξηγήσεις που έχουν οι ηγέτες των επιχειρήσεων για το Συνομιλητικό AI

Ηγέτες σκέψης

Όταν το «Chatbot» είναι ένα βρόμικο λόγο: 3 παρεξηγήσεις που έχουν οι ηγέτες των επιχειρήσεων για το Συνομιλητικό AI

mm

Η διάδοση των LLMs όπως το OpenAI’s ChatGPT, το Meta’s Llama και το Anthropic’s Claude έχει οδηγήσει σε ένα chatbot για κάθε περίσταση. Υπάρχουν chatbots για συμβουλές καριέρας, chatbots που σας επιτρέπουν να μιλήσετε με το μελλοντικό εαυτό σας, και ακόμη και ένα chatbot κοτόπουλου που δίνει συμβουλές μαγειρικής. 

Αλλά αυτά δεν είναι τα chatbots των δέκα τελευταίων ετών – τότε, ήταν περιορισμένα σε στενά προκαθορισμένα, αυστηρά «συνομιλίες», συχνά βασισμένα σε ένα μεγάλο διάγραμμα ροής με πολλαπλές επιλογές ή ισοδύναμες απαντήσεις. Ουσιαστικά, ήταν μόνο ελαφρώς πιο εξελιγμένα από τα προ-διαδικτυακά μενού τηλεφωνικών IVR.

Τα σημερινά «chatbots», από την άλλη πλευρά, αναφέρονται πιο συχνά στο συνομιλητικό AI, einem εργαλείο με πολύ ευρύτερες δυνατότητες και περιπτώσεις χρήσης. Και επειδή βρίσκουμε τον εαυτό μας στη μέση του κύκλου υποβολής της γενετικής AI, όλα τα τρία από αυτά τα όροι χρησιμοποιούνται ανταλλακτικά. Δυστυχώς, ως συνέπεια, υπάρχουν πολλές παρεξηγήσεις γύρω από τους κινδύνους, τις περιπτώσεις χρήσης και την απόδοση της επένδυσης σε συνομιλητικό AI μεταξύ των ηγετών των επιχειρήσεων, ειδικά σε πολύ κανονισμένες βιομηχανίες όπως η finance. 

Έτσι, θα ήθελα να θέσω τα πράγματα σε τάξη για κάποιες κοινές παρεξηγήσεις γύρω από τα «chatbots», όταν στην πραγματικότητα συζητάμε για συνομιλητικό AI. 

Μύθος 1: Οι πελάτες μισούν τα Chatbots

Οι καταναλωτές έχουν ζητηθεί για το καλύτερο μέρος της τελευταίας δεκαετίας αν προτιμούν ανθρώπινους πράκτορες ή chatbots – που είναι σαν να ζητάς από κάποιον αν προτιμάει ένα επαγγελματικό μασάζ ή να καθίσει σε μια καρέκλα μασάζ σε ένα εμπορικό κέντρο. 

Αλλά η πρεμιέρα του ChatGPT το 2022 (μαζί με όλα τα εργαλεία που προέκυψαν από αυτό) γύρισε την αντίληψη των ικανοτήτων eines chatbot εντελώς ανάποδα. Όπως αναφέρθηκε παραπάνω, τα παλιά chatbots λειτουργούσαν με σενάρια, så ότι οποιαδήποτε απομάκρυνση από τις προκαθορισμένες διαδρομές τους συχνά οδηγούσε σε σύγχυση και αναποτελεσματικές απαντήσεις. Αδύνατο να κατανοήσουν το контέκστ και την πρόθεση του χρήστη, οι απαντήσεις που δόθηκαν ήταν συχνά γενικές και ανύποπτες, και είχαν περιορισμένη ικανότητα να συλλέξουν, να αποθηκεύσουν και να παραδώσουν πληροφορίες.

Σε αντίθεση, το συνομιλητικό AI εμπλέκει τους ανθρώπους σε φυσικές συνομιλίες που ανταποκρίνονται στην ανθρώπινη ομιλία, επιτρέποντας μια πιο ρευστή, ενστικτική ανταλλαγή. Αποδεικνύει αξιοσημείωτη ευελιξία και προσαρμογή σε απρόβλεπτες εξελίξεις. Είναι σε θέση να κατανοήσει το контέκστ που περιβάλλει την πρόθεση του χρήστη, να ανιχνεύσει συναισθήματα και να απαντήσει συμπαθητικά.

Αυτός ο βαθύτερος βαθμός κατανόησης επιτρέπει στο σημερινό AI να οδηγήσει αποτελεσματικά τους χρήστες σε λογικές διαδρομές προς τους στόχους τους. Αυτό περιλαμβάνει τη γρήγορη μεταβίβαση των πελατών σε ανθρώπινους βοηθούς όταν είναι απαραίτητο. Επιπλέον, το συνομιλητικό AI χρησιμοποιεί προηγμένα φίλτρα πληροφοριών, μηχανισμούς ανάκτησης και την ικανότητα να διατηρεί σχετικές δεδομένα, βελτιώνοντας σημαντικά τις ικανότητες επίλυσης προβλημάτων, που οδηγεί σε μια καλύτερη εμπειρία χρήστη.

Έτσι, δεν είναι ότι οι πελάτες μισούν τα chatbots, τι μισούν είναι η κακή υπηρεσία, η οποία τα παλιά chatbots ήταν οριστικά ένοχα για την παράδοση. Τα σημερινά συνομιλητικά πράκτορα είναι τόσο πολύ πιο εξελιγμένα που πάνω από το ένα τέταρτο των καταναλωτών δεν чувствují 자신ικούς στην ικανότητά τους να διακρίνουν μεταξύ ανθρώπινων και AI πρακτόρων, και κάποιοι ακόμη παραλαμβάνουν AI chatbots ως καλύτερους σε επιλεγμένα καθήκοντα από τους ανθρώπινους ομολόγους τους. 

Σε πιλότους δοκιμών, η εταιρεία μου έχει δει AI πράκτορες να τριπλασιάζουν τους ρυθμούς μετατροπής προοπτικών, που είναι ένα αρκετά ισχυρό σημάδι ότι δεν είναι για το αν είναι ένα bot – είναι για την ποιότητα του έργου που γίνεται.

Μύθος 2: Τα Chatbots είναι Πολύ Κινδυνεύοντα

Στις συζητήσεις με ηγέτες επιχειρήσεων για το AI, οι ανησυχίες συχνά ανακύπτουν γύρω από τις οπτασίες, την προστασία δεδομένων και την προκατάληψη που μπορεί να οδηγήσει σε παραβιάσεις κανονισμών. Αν και νομικές ανησυχίες, μπορούν όλες να μετριαστούν μέσω κάποιων διαφορετικών προσεγγίσεων: fine-tuning, Retrieval-Augmented Generation (RAG) και prompt engineering. 

Αν και δεν είναι διαθέσιμο σε όλα τα LLMs, το fine-tuning μπορεί να εξειδικεύσει ένα προ-εκπαιδευμένο μοντέλο για một συγκεκριμένο καθήκον ή τομέα, με αποτέλεσμα ένα AI που είναι καλύτερα προσαρμοσμένο στις συγκεκριμένες ανάγκες. Για παράδειγμα, μια εταιρεία υγείας θα μπορούσε να εξειδικεύσει ένα μοντέλο για να κατανοήσει και να απαντήσει καλύτερα σε ιατρικές ερωτήσεις. 

Το RAG βελτιώνει την ακρίβεια του chatbot με τη δυναμική ενσωμάτωση εξωτερικής γνώσης. Αυτό επιτρέπει στο chatbot να ανακτά επικαιροποιημένες πληροφορίες από εξωτερικές βάσεις δεδομένων. Για παράδειγμα, ένα chatbot χρηματοοικονομικών υπηρεσιών θα μπορούσε να χρησιμοποιήσει RAG για να παρέχει απαντήσεις σε πραγματικό χρόνο για τις τιμές μετοχών. 

Τέλος, η prompt engineering βελτιώνει τα LLMs με τη δημιουργία προrompt που οδηγούν το chatbot να παράγει πιο ακριβείς ή контέκστ-ευαίσθητες απαντήσεις. Για παράδειγμα, μια πλατφόρμα ηλεκτρονικού εμπορίου θα μπορούσε να χρησιμοποιήσει προprompts για να βοηθήσει το chatbot να παρέχει προσωποποιημένες συστάσεις προϊόντων με βάση τις προτιμήσεις και το ιστορικό αναζήτησης του πελάτη.

Επιπλέον, μπορείτε να ελέγξετε τη δημιουργικότητα «θερμοκρασία» του συνομιλητικού AI για να βοηθήσετε στην πρόληψη των οπτασιών. Ρυθμίζοντας μια χαμηλότερη θερμοκρασία στις API κλήσεις, το AI περιορίζεται να παρέχει πιο детерμινιστικές και συνεπείς απαντήσεις, ιδιαίτερα όταν συνδυάζεται με μια βάση γνώσεων που διασφαλίζει ότι το AI αντλεί από καθορισμένες, αξιόπιστες βάσεις δεδομένων. Για να μειώσετε περαιτέρω τους κινδύνους, αποφύγετε την ανάπτυξη του AI σε ρόλους λήψης αποφάσεων όπου η προκατάληψη ή η λανθασμένη πληροφόρηση θα μπορούσε να οδηγήσει σε νομικά ζητήματα. 

Όσον αφορά την προστασία δεδομένων, διασφαλίστε ότι οι εξωτερικοί πάροχοι AI συμμορφώνονται με τους κανονισμούς, ή αναπτύξτε ανοιχτά μοντέλα σε δική σας υποδομή για να διατηρήσετε τον πλήρη έλεγχο των δεδομένων σας, που είναι απαραίτητο για τη συμμόρφωση με τον GDPR. 

Τέλος, είναι πάντα σοφό να επενδύσετε σε επαγγελματική ασφάλιση που μπορεί να προσφέρει περαιτέρω προστασία, καλύπτοντας τις επιχειρήσεις σε απίθανες περιπτώσεις όπως η απόπειρα δικαστικής διεκδίκησης. Μέσω αυτών των μέτρων, οι επιχειρήσεις μπορούν να αξιοποιήσουν με εμπιστοσύνη το AI ενώ διατηρούν την ασφάλεια του brand και των πελατών.

Μύθος 3: Τα Chatbots δεν είναι έτοιμα για σύνθετα καθήκοντα 

Μετά το να δείτε τα προβλήματα που αντιμετωπίζουν οι μεγάλες εταιρείες τεχνολογίας να αναπτύξουν εργαλεία AI, μπορεί να φαίνεται αφελές να πιστεύουμε ότι μια ΜΜΕ θα είχε ευκολότερη φορά. Αλλά το AI βρίσκεται σήμερα σε ένα στάδιο όπου η φράση «jack of all trades and master of none» δεν είναι ιδιαίτερα ανακριβής. Αυτό οφείλεται σε μεγάλο βαθμό στο ότι αυτά τα εργαλεία ζητούν να εκτελέσουν πολλά διαφορετικά καθήκοντα σε περιβάλλοντα που δεν είναι ακόμη σχεδιασμένα για αποτελεσματική ανάπτυξη του AI. Με άλλα λόγια, δεν είναι ότι δεν είναι ικανά, είναι ότι ζητούν να κάνουν φιγούρες σε μια λίμνη γεμάτη με λεπτά, θρυμματισμένα πάγο. 

Για παράδειγμα, οι οργανισμοί που είναι γεμάτοι με διαχωρισμένα και/ή ακατάτακτα δεδομένα θα είναι πιο ευάλωτοι στο να βγάλουν το AI στην επιφάνεια παλαιών, ανακριβών ή αντικρουόμενων πληροφοριών. Ιронικά, αυτό είναι μια συνέπεια της πολυπλοκότητάς τους! Ενώ τα παλιά chatbots απλώς επαναλάμβαναν βασικές πληροφορίες σε μια γραμμική μόδα, το συνομιλητικό AI μπορεί να αναλύσει ρομποτικά δεδομένα, λαμβάνοντας υπόψη πολλαπλά επηρεαζόμενα παράγοντες ταυτόχρονα για να χαρτογραφήσει τη πιο κατάλληλη διαδρομή προς τα εμπρός. 

Συνεπώς, η επιτυχία με το συνομιλητικό AI είναι εξαρτημένη από αυστηρά παραμέτρους και εξαιρετικά σαφείς ορίους σχετικά με τις πηγές δεδομένων και τα καθήκοντα. Με τα σωστά δεδομένα εκπαίδευσης και προprompts που έχουν σχεδιαστεί από εμπειρογνώμονες, η λειτουργικότητα του συνομιλητικού AI μπορεί να επεκταθεί πολύ πέρα από το πεδίο ενός απλού chatbot. Για παράδειγμα, μπορεί να συλλέξει και να φιλτράρει δεδομένα από συνομιλίες πελατών και να τα χρησιμοποιήσει για να ενημερώσει αυτόματα ένα CRM. Αυτό δεν μόνο ροκανίζει διοικητικά καθήκοντα, αλλά επίσης διασφαλίζει ότι οι πληροφορίες πελατών είναι συνεχώς ακριβείς και ενημερωμένες. Ανα automating τέτοια καθήκοντα, οι επιχειρήσεις μπορούν να εστιάσουν περισσότερο σε στρατηγικές δραστηριότητες παρά σε διοικητικές επιβαρύνσεις.

Εάν θα συνεχίσουμε να χρησιμοποιούμε τον όρο «chatbot», είναι απαραίτητο να διακρίνουμε μεταξύ των πλατφορμών που ενσωματώνουν την τελευταία τεχνολογία συνομιλητικού AI και εκείνων που vẫn προσφέρουν τα περιορισμένα εργαλεία του χθες. Με τον ίδιο τρόπο που σήμερα η λέξη «τηλέφωνο» συχνά προκαλεί την εικόνα ενός touch-screen smartphone παρά μια spiral-κορδονιού landline, πιστεύω ότι δεν είμαστε μακριά από το «chatbot» να αντικατασταθεί από την ιδέα των προηγμένων AI πρακτόρων παρά από τα ακατάλληλα multiple-choice अवatars.

Ο Sam Oliver είναι τεχνολογικός επιχειρηματίας, επενδυτής ακινήτων και συγγραφέας. Η τελευταία του επιχείρηση, OpenFi, είναι μια συνομιλητική AI για την γενιά και την καλλιέργεια των πελατών.