Ηγέτες σκέψης
Γιατί τα πράγματα δεν πάνε καλά με τους πράκτορες AI στις επιχειρήσεις: Ένα πρόβλημα γνώσης, όχι τεχνολογίας

Πέρυσι, η S&P Global ανέφερε ότι το ποσοστό των εταιρειών που εγκαταλείπουν τις περισσότερες από τις πρωτοβουλίες τους για την τεχνητή νοημοσύνη hơn διπλασιάστηκε, από 17% σε 42%. Προηγουμένως, η Gartner δημοσίευσε μια πρόβλεψη για τα έργα Agentic AI: το 40% από αυτά θα διακοπεί μέχρι το τέλος του 2027.
Σύμφωνα με την McKinsey & Company, σχεδόν τα μισά από όλα τα στελέχη των επιχειρήσεων πειραματίζονται με πράκτορες AI. Nhưng πόσα έχουν μεταβεί πέρα από το στάδιο του πιλότου και είναι πραγματικά ενεργά; Περίπου ένα στα δέκα.
Η βιομηχανία δεν έχει έλλειψη εξηγήσεων: παραισθήσεις μοντέλων, έλλειψη διακυβέρνησης, υψηλό κόστος GPU και έλλειψη ειδικών. Όλα αυτά είναι πραγματικές προκλήσεις. Αλλά μετά από τρία χρόνια συνεργασίας με συστήματα διαχείρισης γνώσεων και πράκτορες AI, βλέπω ολοένα και περισσότερο ένα διαφορετικό μοτίβο: οι εταιρείες μεταβιβάζουν непλήρη δεδομένα στους πράκτορες τους.
Ως Διδάκτωρ Παιδαγωγικών Επιστημών, θεωρώ αυτό ως ένα πρόβλημα μεταφοράς γνώσεων. Αν ένα άτομο δεν μπορεί να εξηγήσει πώς λαμβάνει αποφάσεις, η λογική του δεν μπορεί να μεταφερθεί σε ένα νέο υπάλληλο — πόσο μάλλον σε einen πράκτορα AI. Ας εξετάσουμε γιατί συμβαίνει αυτό και τι μπορεί να γίνει γι’ αυτό.
Πού βρίσκεται η γνώση για το πώς λειτουργεί μια εταιρεία στην πραγματικότητα
Ρωτήστε μια μεγάλη εταιρεία πού αποθηκεύονται τα δεδομένα των υπαλλήλων και θα ακούσετε μια μακρά λίστα: Confluence, SharePoint, LMS πλατφόρμες, FAQ bots, Slack αρχείων. Μπορεί να φαίνεται ότι αυτό είναι ακριβώς το στάκ που ένα σύστημα RAG μπορεί να χρησιμοποιήσει για να ανακτήσει όλα όσα χρειάζεται. Αλλά ένα κρίσιμο στοιχείο λείπει — η γνώση που ζει στο μυαλό των ανθρώπων. Γνώση που κανείς δεν έχει ποτέ γραψει.
Γιατί είναι αυτό ένα πρόβλημα;
Επειδή ένας πράκτορας AI για να αναλάβει μέρος μιας ροής εργασιών — να κατανοήσει το контέκστ, να επιλέξει μια ενέργεια και να ολοκληρώσει μια εργασία — χρειάζεται όχι μόνο πρόσβαση σε μια βάση γνώσεων, αλλά και τη λογική λήψης αποφάσεων που χρησιμοποιεί ένας έμπειρος ειδικός.
Φανταστείτε έναν νέο πράκτορα υποστήριξης που λαμβάνει μια αίτηση: ένας πελάτης ισχυρίζεται ότι έχει πληρώσει για μια υπηρεσία, αλλά η πρόσβαση δεν έχει ενεργοποιηθεί. Το σενάριο περιλαμβάνει ένα τυποποιημένο σύνολο βημάτων που τελειώνει με το να ζητήσει από τον πελάτη να περιμένει. Ωστόσο, ο πράκτορας παρατηρεί ότι η κατάσταση είναι ασυνήθιστη: ο πελάτης έχει ήδη επικοινωνήσει με την υποστήριξη δύο φορές και υπάρχουν αρκετές παρόμοιες περιπτώσεις στο σύστημα τις τελευταίες ώρες. Επικοινωνεί με έναν πιο έμπειρο συνάδελφο, ο οποίος εξηγεί ότι έχει δει αυτό πριν και ότι το ζήτημα είναι πιθανότατα μια αποτυχία στο σημείο τομής της πύλης πληρωμών, της τράπεζας και του εσωτερικού συστήματος ενεργοποίησης — इसलिए η περίπτωση πρέπει να αναβαθμιστεί σε άλλο τμήμα.
Για έναν πράκτορα AI, αυτή η λογική είναι αόρατη. Μπορεί να έχει πρόσβαση στο σενάριο, την ιστορία των εισιτηρίων και την κατάσταση πληρωμής αν αυτά τα δεδομένα είναι συνδεδεμένα, αλλά δεν γνωρίζει ποια σήματα ένας έμπειρος χειριστής θεωρεί αποφασιστικά. Δεν είναι ότι οι εμπειρογνώμονες αποκρύπτουν σκόπιμα αυτή τη γνώση. Απλώς δεν μπορούν να την формαλίσουν ή να τη διαλύσουν σε βήματα: ποια επιλογές απορρίπτονται, γιατί μια συγκεκριμένη ενέργεια επιλέχθηκε και σε ποιο σημείο έγινε σαφές ότι το τυποποιημένο σενάριο δεν εφαρμόζεται. Οι γνωσιακοί επιστήμονες αναφέρονται σε αυτό το φαινόμενο ως τακτική γνώση — σιωπηλή γνώση που ακόμη και ο κάτοχός της μπορεί να μην είναι πλήρως συνειδητός.
Αυτό είναι γιατί το μπουκάλι δεν προέρχεται στο επίπεδο της πρόσβασης στα έγγραφα, αλλά στο στάδιο της μετατροπής της εμπειρίας του ειδικού σε μορφή κατάλληλη για την εκπαίδευση ενός πράκτορα AI.
Τι να κάνετε γι’ αυτό
Για να κάνετε έναν πράκτορα AI να λειτουργήσει αποτελεσματικά, δεν είναι αρκετό να συνδέσετε απλώς ένα LLM με μια εταιρική βάση γνώσεων, επειδή οι επιτυχημένες αποφάσεις συχνά βασίζονται σε τακτική γνώση. Ένα στρώμα γνώσεων πρέπει πρώτα να δημιουργηθεί, συμπεριλαμβανομένων δομημένων κριτηρίων λήψης αποφάσεων.
Στη διαχείριση γνώσεων, αυτή η διαδικασία ονομάζεται εξωτερικοποίηση — μετατροπή τακτής γνώσης σε ρητή γνώση. Με άλλα λόγια, μια εταιρεία πρέπει να κατανοήσει όχι μόνο τι κάνει ένας εμπειρογνώμονας, αλλά και πώς σκέφτεται. Αυτό συνήθως γίνεται μέσω μιας σειράς σε βάθος συνεντεύξεων με έναν κορυφαίο εμπειρογνώμονα. Μαζί του πρέπει να υπάρχει κάποιος που είναι ικανός να κάνει τις σωστές ερωτήσεις: ένας μεθοδολόγος, μηχανικός γνώσεων ή ειδικός σχεδιασμού εκπαίδευσης. Η εργασία τους δεν είναι να γράψουν ένα “οδηγό με βάση αυτό που λέει ο εμπειρογνώμονας”, αλλά να ανακατασκευάσουν τα κριτήρια για την επιλογή μεταξύ επιλογών, να διαλύσουν τις περιπτώσεις άκρων και να επιφέρουν τυπικά λάθη που ο εμπειρογνώμονας ήδη χειρίζεται αυτόματα.
Εδώ, η τεχνητή νοημοσύνη μπορεί να βοηθήσει σημαντικά: μεταγράφοντας συνεντεύξεις, ομαδοποιώντας παρόμοιες περιπτώσεις, μετατρέποντας τις εξηγήσεις του εμπειρογνώμονα σε προσχέδια σεναρίων και δημιουργώντας καταστάσεις για επικύρωση. Ωστόσο, η τελική δομή πρέπει ακόμη να ελεγχθεί και να εγκριθεί από τον εμπειρογνώμονα.
Το αποτέλεσμα πρέπει να είναι ένα λειτουργικό σώμα γνώσεων. Μπορεί να χρησιμοποιηθεί σε δύο κατευθύνσεις ταυτόχρονα — για να εκπαιδεύσει νέους υπαλλήλους και να ρυθμίσει έναν πράκτορα AI. Και οι δύο σενάρια βασίζονται στην ίδια βάση: δομημένη εμπειρία από κορυφαίους ειδικούς.
Η εναλλακτική λύση είναι να συνεχίσετε να βασίζεστε στην υπόθεση ότι το RAG πάνω από το Confluence θα ανακατασκευάσει κάποια λογική που δεν έχει ποτέ τεκμηριωθεί. Στην πράξη, αυτό σχεδόν ποτέ δεν λειτουργεί: το σύστημα μπορεί να ανακτήσει ένα σχετικό έγγραφο, αλλά δεν θα μάθει πώς να λαμβάνει αποφάσεις σε καταστάσεις όπου η σωστή ενέργεια εξαρτάται από το контέκστ και την εμπειρία.
Πώς να ελέγξετε αν ένας πράκτορας είναι έτοιμος να εργαστεί
Έχετε μετατρέψει την εμπειρία του εμπειρογνώμονα σε σενάρια και ρυθμίσατε τον πράκτορα. Αλλά υπάρχει ένα κενό μεταξύ των πιθανολογούμενων απαντήσεων του πράκτορα και της πραγματικής επιδόσεώς του — και αυτό το κενό γίνεται ορατό μόνο κατά τη διάρκεια της επικύρωσης. Σε αυτό το στάδιο, είναι σημαντικό να καθορίσετε εάν έχετε πραγματικά καταγράψει όλες τις απαραίτητες γνώσεις.
Μια πρακτική προσέγγιση είναι η δοκιμή με σενάρια. Δίνετε στον πράκτορα πραγματικές περιπτώσεις από την καθημερινή εργασία ενός εμπειρογνώμονα: ένας πελάτης αμφισβητεί μια χρέωση, ένα ασυνήθιστο email φτάνει ή μια αίτηση εμφανίζεται που δεν ταιριάζει στο βασικό σενάριο. Τα αποτελέσματα δεν πρέπει να αξιολογηθούν από άλλο LLM, αλλά από τον ίδιο εμπειρογνώμονα που βοήθησε να δημιουργηθεί το σώμα γνώσεων. Αν ο πράκτορας ακολουθήσει διαφορετικό δρόμο από τον έμπειρο ειδικό, δεν σημαίνει πάντα ότι το μοντέλο είναι αδύναμο. Περισσότερες φορές, υποδεικνύει ότι ένα κρίσιμο κανόνα, εξαίρεση ή παράδειγμα λείπει. Σε αυτή την περίπτωση, η διαδικασία επιστρέφει στην αρχή: ο μεθοδολόγος διευκρινίζει τη λογική με τον εμπειρογνώμονα, το σώμα γνώσεων ενημερώνεται, οι οδηγίες βελτιώνονται και η δοκιμή επαναλαμβάνεται.
Αυτός ο κύκλος δεν είναι ένας προαιρετικός βήμα, αλλά ένα στάδιο που ορίζει τη διαφορά μεταξύ ενός πράκτορα που απλώς “δείχνει δυνατότητες” και ενός που πραγματικά εκτελεί εργασία. Είναι một αργός και μη εντυπωσιακός μέρος της διαδικασίας: δεν παράγει μια εντυπωσιακή επίδειξη και απαιτεί τη συμμετοχή των εμπειρογνώμονων. Αλλά αυτοί που το περνούν συστηματικά τελικά έχουν πράκτορες που πραγματικά μειώνουν τη ρουτίνα εργασία για τους ειδικούς. Αυτοί που το παραλείπουν, μέσα σε έξι μήνες συχνά βρίσκονται στα στατιστικά της Gartner, που προβλέπει ότι το 40% των έργων θα ακυρωθούν.
Η Agentic AI δεν αποτυγχάνει λόγω της τεχνολογίας — τα σύγχρονα μοντέλα είναι ήδη ικανά να εκτελούν σύνθετες εργασίες. Αποτυγχάνει επειδή οι εταιρείες “τρέφουν” την με непλήρη γνώση. Το 2024-2025, αυτό μπορούσε ακόμη να εξηγηθεί από το πειραματικό στάδιο. Το 2026, αυτό το λάθος ήδη έχει υψηλό κόστος.












