Ηγέτες σκέψης
Γιατί το Επιχειρηματικό AI Σπάει Μετά την Αναπτύξή του – και Τι Να Κάνετε Γι’ Αυτό

Προειδοποίηση: Το Πρόβλημα Δεν Είναι το Μοντέλο
Το 2023, η Νέα Υόρκη launched το chatbot MyCity για να βοηθήσει τις επιχειρήσεις να πλοηγηθούν σε σύνθετες κανονιστικές διατάξεις. Η ιδέα ήταν απλή: να κάνουν τις νομικές πληροφορίες πιο εύκολες στην πρόσβαση.
Στην πράξη, το σύστημα παρήγαγε απαντήσεις που δεν ήταν μόνο λάθος, αλλά και νομικά παραπλανητικές – από τους κανόνες για τις Gratuity έως τις διακρίσεις στην κατοικία και τους νόμους για τις πληρωμές.
Μια ελέγχου αργότερα βρήκε ότι 71.4% των σχολίων των χρηστών ήταν αρνητικά. Αντί να διορθώσουν τα υποκείμενα προβλήματα, η απάντηση ήταν να προσθέσουν προειδοποιήσεις. Το chatbot παρέμεινε σε “βήτα” για πάνω από δύο χρόνια πριν κλείσει.
Η αποτυχία δεν ήταν τεχνική. Το σύστημα κατέρρευσε στην παραγωγή επειδή δεν υπήρχε μηχανισμός για να διασφαλίσει την ακρίβεια, δεν υπήρχε σαφής ευθύνη και δεν υπήρχε τρόπος να παρέμβει όταν τα πράγματα πήγαν στραβά.
Αυτό είναι το μοτίβο πίσω από το επιχειρηματικό AI σήμερα: η τεχνολογία λειτουργεί, αλλά οι οργανισμοί δεν είναι διαμορφωμένοι για να την λειτουργήσουν αξιόπιστα μια φορά που είναι ζωντανοί.
Από το Πιλοτικό στο Παραγωγικό: Πού Όλα Κατέρχονται
Η κατασκευή ενός πιλοτικού είναι khá απλή – επιλέξτε μια περίπτωση χρήσης, επιλέξτε ένα μοντέλο, προετοιμάστε τα δεδομένα, βρείτε einen χορηγό. Η εκτέλεση ενός συστήματος στην παραγωγή είναι ένα διαφορετικό επίπεδο εντελώς.
Το κενό είναι σαν τη διαφορά μεταξύ του να πηδήξεις σε μια πισίνα και του να πηδήξεις από τη στρατόσφαιρα, όπως ο Felix Baumgartner το 2012. Η ίδια βασική φυσική, εντελώς διαφορετικές συνθήκες – και πολύ διαφορετικές συνέπειες για αποτυχία.
Στην παραγωγή, το AI εισέρχεται σε πραγματικές ροές λήψης αποφάσεων, αλληλεπιδρά με πελάτες και δημιουργεί νομικές και λειτουργικές συνέπειες. Εκεί είναι που αρχίζουν να εμφανίζονται τα κενά – όχι στο μοντέλο, αλλά στο πώς κυβερνάται.
Η Ευρώπη κάνει αυτό ορατό νωρίτερα από τις περισσότερες περιοχές. Οι κανονισμοί όπως ο νόμος της ΕΕ για το AI, ο GDPR και ο NIS2 δεν επιβραδύνουν την υιοθέτηση – αποκαλύπτουν αν οι οργανισμοί μπορούν να λειτουργήσουν συστήματα AI υπό πραγματικές περιοριστικές συνθήκες.
Το 2025, το 55% των μεγάλων επιχειρήσεων της ΕΕ χρησιμοποιούσε ήδη AI. Η υιοθέτηση ήδη συμβαίνει σε κλίμακα. Η πρόκληση είναι τι συμβαίνει μετά την αναπτύξή του.
Σε εκείνο το σημείο, βασικά λειτουργικά ερωτήματα αρχίζουν να εμφανίζονται. Και συχνά, κανείς δεν μπορεί να απαντήσει: Ποιος είναι υπεύθυνος για τις εξόδους του AI και τις αυτονομικές αποφάσεις; Τι συμβαίνει όταν το σύστημα συμπεριφέρεται με απρόβλεπτο τρόπο; Και ποιος θα το πιάσει πριν φτάσει η ζημιά στα μέσα ενημέρωσης;
Η ευθύνη αναπαύεται με την εταιρεία, όχι με την τεχνολογία. Το chatbot της Air Canada έδωσε σε έναν πελάτη λανθασμένες πληροφορίες σχετικά με τις χρεώσεις πένθους. Ο πελάτης βασίστηκε σε αυτό και αργότερα αρνήθηκε μια επιστροφή χρημάτων. Ένα δικαστήριο ruled ότι η αεροπορική εταιρεία ήταν υπεύθυνη – το chatbot δεν ήταν ένα ξεχωριστό ον.
Το ίδιο πρόβλημα, διαφορετική γωνία: το σύστημα McHire της McDonald’s εξέθεσε ευαίσθητα δεδομένα από σχεδόν 64.000 αιτούντες. Η αιτία δεν ήταν μια περίπλοκη επίθεση – ο κωδικός πρόσβασης του διαχειριστή χρησιμοποιούσε “admin” και “123456”. Το σύστημα φαινόταν προηγμένο. Η αποτυχία ήταν στοιχειώδης.
Όταν συνδέσετε την κυβέρνηση σε ένα ζωντανοί σύστημα, είναι ήδη слишком αργά. Η αναπτύξή του eines συστήματος είναι μια τεχνική απόφαση. Η λειτουργία του αξιόπιστα είναι μια οργανωτική απόφαση. Και αυτό το μέρος περισσότερες εταιρείες υποτιμούν.
Ποιος Κρατά την Ευθύνη για το AI; Κανείς.
Αυτό είναι το κεντρικό πρόβλημα, και παραδόξως το λιγότερο συζητημένο. Η Τεχνολογία διαχειρίζεται την υποδομή. Ο Νομικός χειρίζεται την συμμόρφωση. Οι επιχειρηματικές ομάδες推 use cases. Αλλά κανείς δεν κρατά την ευθύνη για το AI.
Αυτό δημιουργεί δύο άμεσα προβλήματα. Η απόφαση “πάνε” επιβραδύνεται – επειδή κανείς δεν θέλει να πάρει την ευθύνη. Και η απόφαση “σταματήστε” επιβραδύνεται εξίσου – επειδή κανείς δεν ξέρει ποιος μπορεί.
Τα δεδομένα το αντανακλούν. Λιγότερες από 10% των περιπτώσεων χρήσης του AI φτάνουν από το πιλοτικό στο παραγωγικό, και οι περισσότερες οργανώσεις αγωνίζονται να παράγουν μετρήσιμη επιχειρηματική επιρροή. Ταυτόχρονα, πολλές έχουν ήδη αναπτύξει AI – αλλά σύμφωνα με ένα έρευνα για την ωριμότητα της κυβέρνησης, μόνο το 7% είχε καλά δομημένη και συνεπώς εφαρμοζόμενη κυβέρνηση.
Γιατί συμβαίνει αυτό τόσο συνεχώς; Επειδή οι περισσότεροι πίνακες και εταιρικές πολιτικές ορίζουν τι πρέπει να συμβεί – όχι ποιος είναι υπεύθυνος όταν έχει σημασία. Όταν ένα σύστημα αρχίζει να παράγει λανθασμένες εξόδους τα μεσάνυχτα μιας Παρασκευής, το ερώτημα δεν είναι θεωρητικό. Ποιος ενεργεί; Και ποιος έχει την εξουσία να αποφασίσει;
Αυτό γίνεται χειρότερο με την κλίμακα. Ένα σύστημα μπορεί να διαχειριστεί άτυπα. Όταν έχετε τριάντα, η ευθύνη κατακερματίζεται σε ομάδες, και κανείς δεν έχει την πλήρη εικόνα.
Η Commonwealth Bank της Αυστραλίας παρέχει ένα σαφές παράδειγμα. Η τράπεζα αντικατέστησε 45 εργαζόμενους εξυπηρέτησης πελατών με φωνητά bots AI, αναμένοντας ότι η ζήτηση θα μειωθεί. Δεν το έκανε. Οι κλήσεις αυξήθηκαν, οι διευθυντές παρενέβησαν για να χειριστούν την υπερχείλιση, και η τράπεζα έπρεπε να ξανα προσλάβει όλους τους 45 εργαζόμενους. Όταν προκλήθηκε, δεν μπόρεσε να αποδείξει ότι η αυτοματοποίηση είχε μειώσει το φόρτο εργασίας.
Κανείς δεν είχε επικυρώσει τις υποθέσεις πριν από την αναπτύξή του. Κανείς δεν κρατούσε την ευθύνη για το αποτέλεσμα όταν αυτές οι υποθέσεις απέτυχαν. Αυτό είναι τι μοιάζει με ένα κενό ευθύνης στην πράξη.
Δεν Είναι Ικανό να Έχει Κανόνες. Χρειάζεστε Έναν Μηχανισμό
Οι περισσότερες οργανώσεις δεν λείπουν πολιτικές. Λείπουν συστήματα που λειτουργούν όταν κάτι πάει στραβά.
Μια πολιτική ορίζει τι πρέπει να συμβεί. Ένας μηχανισμός καθορίζει τι πραγματικά συμβαίνει – όταν ένα μοντέλο παράγει λανθασμένες εξόδους, όταν ένας προμηθευτής αλλάζει κάτι στο παρασκήνιο, ή όταν ένα σύστημα αρχίζει να συμπεριφέρεται με απρόβλεπτο τρόπο.
Αυτή η διαφορά γίνεται ορατή στην παραγωγή – όταν οι αποφάσεις πρέπει να ληφθούν υπό πραγματικές συνθήκες.
Αυτές οι αποτυχίες ακολουθούν ένα συνεχές δυναμικό. Σε κάθε περίπτωση, τα ίδια λειτουργικά κενά εμφανίζονται – μόνο σε διαφορετικές μορφές.
Η Ιδιοκτησία Ερχεται Πρώτα
Κάθε αναπτυγμένο σύστημα AI χρειάζεται έναν σαφώς υπεύθυνο ιδιοκτήτη – ένα άτομο, όχι μια ομάδα ή τμήμα, με την εξουσία να εγκρίνει, να παύει και να κλείνει.
Χωρίς αυτό, ούτε η ταχεία αναπτύξή του ούτε η ασφαλής παρέμβαση είναι δυνατή. Όπως φαίνεται στο παράδειγμα της Commonwealth Bank, η απουσία σαφούς ιδιοκτησίας οδηγεί trực tiếp σε λειτουργική αποτυχία.
Τα Δεδομένα και η Νομική Σαφήνεια Λείπουν Συχνά
Πολλλά συστήματα αρχίζουν να λειτουργούν χωρίς τεκμηριωμένα δεδομένα, μια επιβεβαιωμένη νομική βάση ή σαφήνεια σχετικά με τις υποχρεώσεις που ισχύουν μια φορά που το σύστημα είναι σε λειτουργία.
Η δράση του Ιταλού ρυθμιστή εναντίον DeepSeek το 2025 εικονογραφεί αυτό σαφώς. Το ζήτημα δεν ήταν η ποιότητα του μοντέλου – ήταν η αδυναμία να εξηγήσει πώς χειρίζεται τα προσωπικά δεδομένα. Το αποτέλεσμα ήταν μια ξαφνική διακοπή της υπηρεσίας για τους Ευρωπαίους χρήστες.
Το Τεστ Σπάνια Αντανακλά τη Πραγματική Χρήση
Τα συστήματα αξιολογούνται συχνά σε σενάρια όπου λειτουργούν καλά, αλλά όχι στις περιπτώσεις όπου η αποτυχία θα είχε σημασία.
Το chatbot MyCity είναι ένα σαφές παράδειγμα. Βασικά edge cases – γύρω από το εργατικό δίκαιο, τις διακρίσεις στην κατοικία ή τους νόμους για τις πληρωμές – δεν πιάστηκαν πριν από την αναπτύξή του. Μόλις εκτεθεί σε πραγματικούς χρήστες, αυτές οι αποτυχίες έγιναν δημόσιες αμέσως.
Το τεστ δεν είναι μόνο για την απόδοση – είναι για την αναγνώριση των σημείων όπου το σύστημα αποτυγχάνει πριν από τους χρήστες, τους ρυθμιστές ή τους δημοσιογράφους.
Η Παρέμβαση Είναι Ασαφής ή Πολύ Αργή
Ακόμη και όταν τα ζητήματα είναι ορατά, δεν υπάρχει σαφής ερέθισμα ή εξουσία να παύσει ή να κλείσει το σύστημα.
Zillow Offers αποδεικνύει αυτό σε κλίμακα. Το σύστημα χρησιμοποιούσε einen αλγόριθμο για να τιμολόγησει και να αγοράσει σπίτια. Όταν η αγορά ψύχρασε το 2021, το σύστημα συνέχισε να αγοράζει σε φουσκωμένες τιμές. Δεν υπήρχε μηχανισμός για να ανιχνεύσει την απόκλιση εγκαίρως, και δεν υπήρχε σαφής σημείο απόφασης για να το σταματήσει. Το αποτέλεσμα ήταν ζημιές που ξεπέρασαν τα 880 εκατομμύρια δολάρια και η κλείσιμο του ολόκληρου τμήματος.
Η Παρακολούθηση Δεν Είναι Ιδιοκτησία
Η παρακολούθηση συχνά μειώνεται σε πίνακες, αλλά αυτό δεν είναι αυτό που αποτρέπει τις αποτυχίες.
Αυτό που έχει σημασία είναι η καθορισμένη ευθύνη: ποιος παρακολουθεί τα σήματα, τι προκαλεί την ανύψωση, και ποιος αναμένεται να ενεργήσει.
Η περίπτωση της Deloitte Australia δείχνει τι συμβαίνει όταν αυτό λείπει. Μια κυβερνητική έκθεση περιελάμβανε ψευδείς παραπομπές και λανθασμένες νομικές αναφορές επειδή κανείς δεν ήταν ρητά υπεύθυνος για την επαλήθευση των εξόδων πριν από την παράδοση. Το αποτέλεσμα ήταν μια μερική επιστροφή χρημάτων και ζημιά στην εικόνα.
Agentic AI: Τι Ερχεται Θα Είναι Ακόμα Πιο Δύσκολο
Το γεννητικό AI παράγει εξόδους. Το Agentic AI λαμβάνει ενέργειες. Αυτό αλλάζει τον κίνδυνο εντελώς.
Αντί για μια απάντηση για αξιολόγηση, μια εντολή μπορεί να προκαλέσει μια αλυσίδα αποφάσεων σε συστήματα – κλήσεις API, πρόσβαση δεδομένων, συναλλαγές, ενημερώσεις – συχνά χωρίς ανθρώπινη παρέμβαση σε κάθε βήμα.
Όταν κάτι πάει στραβά, το πρόβλημα δεν είναι πλέον η ακρίβεια. Είναι η ιχνηλασιμότητα. Ποιο βήμα προκάλεσε το ζήτημα; Ποια δεδομένα χρησιμοποιήθηκαν; Ποιος εξουσιοδότησε την ενέργεια; Σε πολλές περιπτώσεις, αυτά τα ερωτήματα είναι δύσκολο να απαντηθούν μετά το γεγονός.
Αυτό είναι όπου τα υπάρχοντα κενά γίνονται κρίσιμα. Η ασαφής ιδιοκτησία, η αδύναμη παρακολούθηση και η έλλειψη παρέμβασης δεν просто επιμένουν – συνδυάζονται. Μια ελαττωματική απάντηση μπορεί να διορθωθεί. Μια ελαττωματική ενέργεια μπορεί να δημιουργήσει συνέπειες πριν κανείς το καταλάβει.
Νωρίτερα σήματα ήδη δείχνουν προς αυτή την κατεύθυνση. Η Gartner εκτιμά ότι περισσότερα από 40% των έργων Agentic AI θα ακυρωθούν μέχρι το τέλος του 2027 – όχι λόγω περιορισμών του μοντέλου, αλλά επειδή οι οργανισμοί αγωνίζονται να ελέγχουν το κόστος, τον κίνδυνο και τα αποτελέσματα. Αυτό είναι το ίδιο μοτίβο που βλέπουμε με το γεννητικό AI μετά την αναπτύξή του. Απλά με υψηλότερους στοιχήματα.
Οι ρυθμιστές ήδη ανταποκρίνονται με μια απλή αρχή: η αυτοματοποίηση δεν αφαιρεί την ευθύνη. Για τις οργανώσεις, αυτό δημιουργεί μια σαφή επιπλοκή: αν η ιδιοκτησία και ο έλεγχος είναι ασαφείς σήμερα, η κλιμάκωση σε συστήματα Agentic δεν θα λύσει το πρόβλημα. Θα το ενισχύσει.
Λειτουργήστε το – Ή Χάστε το
Το AI δεν είναι πλέον το περιορισμό. Τα μοντέλα είναι ευρέως διαθέσιμα, ικανά και όλο και περισσότερο εμπορευματοποιημένα. Ο πραγματικός διαφοροποιητής δεν είναι αν μια οργάνωση μπορεί να κατασκευάσει AI – αλλά αν μπορεί να το λειτουργήσει αξιόπιστα μια φορά που είναι ζωντανοί.
Αυτή είναι η θέση όπου συμβαίνουν οι περισσότερες αποτυχίες – στο πώς λειτουργούν τα συστήματα, όχι στο πώς κατασκευάζονται. Οι οργανισμοί που θα επιτύχουν δεν θα είναι εκείνοι με τα πιο προηγμένα μοντέλα. Θα είναι εκείνοι με τις σαφείς λειτουργικές δομές γύρω τους.
Αυτό μπορεί να ελεγχθεί trực tiếp. Πάρτε το πιο σημαντικό σας σύστημα AI και απαντήστε τρία ερωτήματα:
- Ποιος μπορεί να το κλείσει;
- Πώς γνωρίζετε όταν αποτυγχάνει;
- Τι συμβαίνει όταν το κάνει;
Εάν αυτές οι απαντήσεις είναι ασαφείς, το σύστημα δεν είναι έτοιμο για παραγωγή.
Το μοντέλο μπορεί να είναι. Η οργάνωση δεν είναι.












