Ηγέτες της σκέψης
Γιατί η τυφλή εμπιστοσύνη στην τεχνητή νοημοσύνη θα μπορούσε να είναι η χειρότερη απόφασή σας μέχρι σήμερα

Στο 1979, ένα Εγχειρίδιο Εκπαίδευσης IBM έκανε μια απλή αλλά εντυπωσιακή προειδοποίηση: «Ένας υπολογιστής δεν μπορεί ποτέ να θεωρηθεί υπεύθυνος· επομένως, ένας υπολογιστής δεν πρέπει ποτέ να λαμβάνει διοικητική απόφαση». Και περισσότερα από 45 χρόνια αργότερα, αυτή η δήλωση μοιάζει με μια αγνοημένη προφητεία.
Το 2025, η Τεχνητή Νοημοσύνη δεν απλώς βοηθάει. Λαμβάνει αυτόνομες αποφάσεις και, σε πολλές περιπτώσεις, όχι μόνο αποφασίζει αλλά και ηγείται. Στην πραγματικότητα, περίπου 74% των στελεχών εμπιστεύονται περισσότερο την Τεχνητή Νοημοσύνη για επιχειρηματικές συμβουλές σε σύγκριση με συναδέλφους ή φίλους, το 38% εμπιστεύεται την Τεχνητή Νοημοσύνη για να λαμβάνει επιχειρηματικές αποφάσεις για αυτούς και το 44% ανατρέπει τη συλλογιστική της τεχνολογίας αντί για τις δικές του γνώσεις. Η μετατόπιση είναι σαφής. Η Τεχνητή Νοημοσύνη είναι το νέο ένστικτο.
Υπάρχει όμως ένα πρόβλημα. Η εμπιστοσύνη στην Τεχνητή Νοημοσύνη είναι δυνατή μόνο εάν ο αλγόριθμος αξίζει να εμπιστευτεί κανείς. Και όταν η εμπιστοσύνη δίνεται στα τυφλά, ειδικά σε μαύρα κουτιά που δεν μπορούμε να κατανοήσουμε ή να ελέγξουμε, αποτελεί κίνδυνο που συγκαλύπτεται ως πρόοδος. Όπως και με την ανθρώπινη ηγεσία, η εμπιστοσύνη χωρίς λογοδοσία είναι επικίνδυνη, και όταν η Τεχνητή Νοημοσύνη κάνει λάθος, ποιος αναλαμβάνει την ευθύνη;
Όταν το Εργαλείο Γίνεται το Αφεντικό
Αυτό που ξεκίνησε ως εργαλείο για την απλοποίηση των λειτουργιών back-office χρησιμοποιείται πλέον σε βασικές επιχειρηματικές διαδικασίες. Ωστόσο, οι εταιρείες δεν χρησιμοποιούν την Τεχνητή Νοημοσύνη μόνο για την υποστήριξη ανθρώπινων αποφάσεων. Τώρα εμπιστεύονται την Τεχνητή Νοημοσύνη, και ιδιαίτερα την γενετική Τεχνητή Νοημοσύνη (GenAI), για τη λήψη επιχειρηματικών αποφάσεων, από την επιχειρηματική στρατηγική έως την εξυπηρέτηση πελατών, τη χρηματοοικονομική μοντελοποίηση και πολλά άλλα.
Αυτή η μετατόπιση είναι κατανοητή. Η Τεχνητή Νοημοσύνη δεν αποσπάται, δεν ξεχνά οδηγίες ούτε αφήνει τα συναισθήματα να θολώνουν την κρίση της. Για πολλές εταιρείες, αυτό προσφέρει ένα ελκυστικό αντίδοτο στους κινδύνους του ανθρώπινου λάθους. Ωστόσο, ένα βασικό ερώτημα παραμένει: μπορούμε να εμπιστευτούμε την Τεχνητή Νοημοσύνη ως το αφεντικό και να λαμβάνει αποφάσεις ανεξάρτητα;
Δεν είναι μια απλή απάντηση, αλλά ένας τρόπος να το δούμε είναι ο τρόπος με τον οποίο κρίνουμε την αξιοπιστία των ανθρώπων: με βάση την ικανότητά τους, την αξιοπιστία τους και τη σαφή τους πρόθεση. Οι ίδιες αρχές ισχύουν και για την Τεχνητή Νοημοσύνη.
Για να είναι αξιόπιστο, ένα σύστημα Τεχνητής Νοημοσύνης πρέπει να παρέχει αποτελέσματα που είναι ακριβή, έγκαιρα και κατάλληλα. Ωστόσο, το επίπεδο εμπιστοσύνης και το περιθώριο σφάλματος ποικίλλουν ανάλογα με το πλαίσιο. Για παράδειγμα, κατά τη διάγνωση του καρκίνου από ιατρικές εικόνες, το όριο αποτυχίας είναι εξαιρετικά χαμηλό. Αντίθετα, κατά τη δημιουργία ιδεών για μια καμπάνια μάρκετινγκ, υπάρχει περισσότερο περιθώριο για πειραματισμό.
Έχουμε δει την Τεχνητή Νοημοσύνη να χρησιμοποιείται για τη λήψη αυτόνομων αποφάσεων σε τομείς όπως οι εγκρίσεις πιστώσεων, με τις τράπεζες να αξιοποιούν αλγόριθμους για να καθορίζουν την επιλεξιμότητα δανείων σε δευτερόλεπτα. Οι λιανοπωλητές χρησιμοποιούν την Τεχνητή Νοημοσύνη για τη διαχείριση του αποθέματος και της τιμολόγησης χωρίς ανθρώπινη παρέμβαση. Αλλά έχουμε δει και αποτυχίες, όπως αυτοκίνητα χωρίς οδηγό που εκτιμούν λανθασμένα τις συνθήκες του οδοστρώματος.
Μια προειδοποιητική ιστορία δείχνει τους κινδύνους της υπερβολικής εμπιστοσύνης στην Τεχνητή Νοημοσύνη χωρίς επαρκή εποπτεία. Ο Ντέρεκ Μόμπλεϊ - ένας μαύρος άνδρας άνω των 40 ετών - υπέβαλε αίτηση για περισσότερες από 100 θέσεις μέσω του... Σύστημα προσλήψεων που βασίζεται στην τεχνητή νοημοσύνη για εργάσιμες ημέρες από το 2017 και απορρίφθηκε κάθε φορά. Ισχυρίστηκε διακρίσεις λόγω ηλικίας και φυλής. Τον Μάιο του 2025, το δικαστήριο έκανε δεκτή μια συλλογική αγωγή σε εθνικό επίπεδο. Η κατηγορία περιλαμβάνει όλους τους αιτούντες ηλικίας 40+ που υπέβαλαν αίτηση μέσω του Workday από τον Σεπτέμβριο του 2020 και απορρίφθηκαν βάσει συστάσεων της Τεχνητής Νοημοσύνης.
Αυτό το παράδειγμα υπογραμμίζει ένα σημαντικό σημείο: Η Τεχνητή Νοημοσύνη στερείται συναισθηματικής νοημοσύνης, ηθικής συλλογιστικής ή φυσικής αίσθησης δικαιοσύνης. Και επειδή η Τεχνητή Νοημοσύνη μετατρέπεται από ανθρώπινο βοηθό σε ανεξάρτητο φορέα λήψης αποφάσεων, υπάρχει πλέον ένα κενό λογοδοσίας. Όταν οι αλγόριθμοι επιτρέπεται να λειτουργούν χωρίς ανθρώπινους ελέγχους και ισορροπίες, μπορούν και πράγματι λαμβάνουν κακές αποφάσεις και ενισχύουν τις υπάρχουσες προκαταλήψεις.
Το ερώτημα γύρω από τα μαύρα κουτιά
Μαύρα κουτιά—όταν το σύστημα και η λογική μιας τεχνητής νοημοσύνης δεν είναι πλήρως ορατά— είναι ολοένα και πιο συνηθισμένα. Παρόλο που μπορεί να έχουν ορατά επίπεδα, οι προγραμματιστές και οι χρήστες εξακολουθούν να μην μπορούν να δουν τι συμβαίνει σε κάθε επίπεδο, γεγονός που τα καθιστά αδιαφανή.
Για παράδειγμα, το ChatGPT είναι ένα μαύρο κουτί, όπως είναι ακόμη και οι δημιουργοί του. δεν είμαι σίγουρος/η για το πώς λειτουργεί, δεδομένου ότι εκπαιδεύεται σε τόσο μεγάλα σύνολα δεδομένων. Αλλά λόγω της έλλειψης διαφάνειας, είναι ποτέ σωστό να «εμπιστευόμαστε» ένα μοντέλο Τεχνητής Νοημοσύνης χωρίς να κατανοούμε πλήρως πώς λειτουργεί;
Με λίγα λόγια, όχι: Παραισθήσεις AI χειροτερεύουν. Αυτό σημαίνει ότι σε σενάρια υψηλού ρίσκου, όπως οικονομικές αποφάσεις, νομικές συμβουλές και ιατρικές γνώσεις, η Τεχνητή Νοημοσύνη απαιτεί αυστηρή επικύρωση, διασταυρούμενες αναφορές και ανθρώπινη εποπτεία.
The Αγωγή της Disney και της Universal Η υπόθεση που κατατέθηκε τον Ιούνιο του 2025 ενισχύει αυτό το επιχείρημα. Τα στούντιο ισχυρίζονται ότι τα εργαλεία GenAI εκπαιδεύτηκαν σε υλικά που προστατεύονται από πνευματικά δικαιώματα για να δημιουργούν νέο περιεχόμενο χωρίς συγκατάθεση. Αυτή η υπόθεση αναδεικνύει μια νέα πραγματικότητα: όταν οι εταιρείες αναπτύσσουν μοντέλα AI που δεν κατανοούν πλήρως, ενδέχεται να θεωρηθούν υπεύθυνες για τις αποφάσεις που λαμβάνουν. Και η άγνοια δεν αποτελεί υπεράσπιση. Είναι ευθύνη.
Ωστόσο, συχνά εμπιστευόμαστε πολύπλοκα συστήματα που δεν κατανοούμε. Για παράδειγμα, οι περισσότεροι επιβάτες αεροπορικών ταξιδιών δεν μπορούν να εξηγήσουν τη φυσική της πτήσης, κι όμως οι άνθρωποι επιβιβάζονται σε αεροπλάνα με αυτοπεποίθηση επειδή έχουμε χτίσει εμπιστοσύνη μέσω επαναλαμβανόμενης έκθεσης, συλλογικής εμπειρίας και ενός ισχυρού ιστορικού ασφάλειας.
Η ίδια λογική μπορεί να εφαρμοστεί και στην Τεχνητή Νοημοσύνη. Είναι παράλογο να περιμένουμε από όλους να κατανοήσουν πώς λειτουργούν στην πραγματικότητα τα LLM. Αλλά η εμπιστοσύνη δεν βασίζεται στην κατανόηση. Απαιτεί εξοικείωση, διαφάνεια σχετικά με τους περιορισμούς και ένα αποδεδειγμένο πρότυπο αξιόπιστης απόδοσης. Οι μηχανικοί αεροδιαστημικής γνωρίζουν ποιες δοκιμές πρέπει να εφαρμόσουν και πώς μοιάζουν τα σφάλματα, και πρέπει να απαιτήσουμε το ίδιο από τους παρόχους Γενικής Τεχνητής Νοημοσύνης. Η θεμελιώδης αρχή της Τεχνητής Νοημοσύνης θα πρέπει να είναι η εμπιστοσύνη, αλλά η επαλήθευση.
Επιπλέον, οι ηγέτες των επιχειρήσεων συχνά πιστεύουν ότι η Τεχνητή Νοημοσύνη θα είναι η πανάκεια που θα λύσει όλα τα επιχειρηματικά τους προβλήματα. Ωστόσο, αυτός ο μύθος μαστίζει πολλές εταιρείες κατά την ενσωμάτωση της Τεχνητής Νοημοσύνης. Οι ηγέτες μπορεί να προτιμούν πολύπλοκα και εξελιγμένα μοντέλα, αλλά μια απλούστερη λύση μπορεί να είναι πιο κατάλληλη αν πραγματοποιούσαν μια ανάλυση κόστους-οφέλους. Η Τεχνητή Νοημοσύνη είναι ένα ισχυρό εργαλείο, αλλά δεν είναι κατάλληλη για κάθε εργασία. Οι εταιρείες πρέπει να αναγνωρίσουν το πρόβλημα πριν επιλέξουν ένα εργαλείο.
Αποκατάσταση της εμπιστοσύνης στην Τεχνητή Νοημοσύνη
Ενώ είναι σαφές ότι η τυφλή εμπιστοσύνη στην Τεχνητή Νοημοσύνη αποτελεί πρόβλημα, τα συστήματα και οι αλγόριθμοι Τεχνητής Νοημοσύνης μπορούν να αποτελέσουν το σπουδαιότερο εργαλείο που έχει ποτέ μια επιχείρηση — όταν χρησιμοποιούνται με ασφάλεια.
Για τις επιχειρήσεις που επιθυμούν να αξιοποιήσουν εργαλεία Τεχνητής Νοημοσύνης, το πρώτο πράγμα που πρέπει να διερευνήσουν είναι η δέουσα επιμέλεια των προμηθευτών. Όταν μια επιχείρηση έχει εντοπίσει έναν τομέα που θα μπορούσε να επωφεληθεί από την αποτελεσματικότητα της Τεχνητής Νοημοσύνης, οι επικεφαλής των επιχειρήσεων θα πρέπει να αξιολογούν τους προμηθευτές όχι μόνο με βάση τους ισχυρισμούς απόδοσης αλλά και με βάση τους ελέγχους διακυβέρνησης. Αυτό περιλαμβάνει την εξέταση του τρόπου με τον οποίο αναπτύσσονται τα μοντέλα, το κατά πόσον υπάρχουν εργαλεία επεξήγησης, τον τρόπο παρακολούθησης της μεροληψίας και το κατά πόσον υπάρχουν διαθέσιμα ίχνη ελέγχου. Η επιλογή ενός προμηθευτή με διαφανείς διαδικασίες είναι απαραίτητη για τον μετριασμό του κινδύνου από την αρχή.
Ίσως το πιο σημαντικό σημείο κατά την οικοδόμηση εμπιστοσύνης στα συστήματα Τεχνητής Νοημοσύνης είναι η διασφάλιση της διακυβέρνησης δεδομένων με καθαρά, αντιπροσωπευτικά και καλά τεκμηριωμένα σύνολα δεδομένων. Όπως λέει και η παροιμία: σκουπίδια μέσα, σκουπίδια έξω. Επομένως, εάν τα δεδομένα είναι ελλιπή, μεροληπτικά ή ανακριβή, ακόμη και το πιο προηγμένο μοντέλο θα παράγει αναξιόπιστα αποτελέσματα.
Για να διασφαλιστεί ότι τα δεδομένα είναι έτοιμα για χρήση με τεχνητή νοημοσύνη, οι επιχειρήσεις θα πρέπει:
-
Ελέγξτε τα υπάρχοντα σύνολα δεδομένων για κενά και επικαλύψεις και ελέγξτε για πηγές μεροληψίας
-
Τυποποίηση μορφών δεδομένων
-
Εφαρμογή πολιτικών διακυβέρνησης δεδομένων που καθορίζουν τους ελέγχους ιδιοκτησίας και πρόσβασης
Ένα άλλο βασικό βήμα που πρέπει να διεξάγουν οι ηγέτες των επιχειρήσεων είναι οι δοκιμές αντοχής σε ακραίες συνθήκες. Παρόλο που ένα μοντέλο μπορεί να έχει καλή απόδοση σε ελεγχόμενες δοκιμές, είναι κρίσιμο να κατανοήσουμε τους περιορισμούς του μοντέλου όταν αντιμετωπίζει νέα δεδομένα ή εισροές που δεν περίμενε. Γι' αυτό είναι σημαντικό να δοκιμάζουμε την Τεχνητή Νοημοσύνη σε μια ποικιλία καταστάσεων, με διαφορετικούς τύπους χρηστών, διάφορες περιπτώσεις χρήσης και δεδομένα από διαφορετικές χρονικές περιόδους.
Η επικύρωση της Τεχνητής Νοημοσύνης είναι επίσης μια συνεχής εργασία. Καθώς τα δεδομένα αλλάζουν με την πάροδο του χρόνου, ακόμη και τα αξιόπιστα μοντέλα Τεχνητής Νοημοσύνης μπορεί να χάσουν την ακρίβειά τους. Γι' αυτό η τακτική παρακολούθηση είναι σημαντική. Οι επιχειρήσεις πρέπει να παρακολουθούν την απόδοση του μοντέλου καθημερινά: εξακολουθεί να είναι ακριβές; Ή μήπως τα ψευδώς θετικά αποτελέσματα εμφανίζονται όλο και συχνότερα; Και όπως κάθε σύστημα που χρειάζεται συντήρηση, τα μοντέλα θα πρέπει να επανεκπαιδεύονται τακτικά με νέα δεδομένα για να παραμένουν σχετικά.
Η Τεχνητή Νοημοσύνη δεν είναι αξιόπιστη ή αναξιόπιστη. Διαμορφώνεται από τα δεδομένα από τα οποία μαθαίνει, τους ανθρώπους που την δημιουργούν και τους κανόνες που την διέπουν. Καθώς η Τεχνητή Νοημοσύνη εξελίσσεται από ένα χρήσιμο εργαλείο σε έναν επιχειρηματικό σύμβουλο, οι ηγέτες έχουν την επιλογή όχι μόνο να τη χρησιμοποιούν, αλλά και να το κάνουν με έναν προσεκτικό και ηθικό τρόπο. Αν το κάνουμε αυτό σωστά, η Τεχνητή Νοημοσύνη όχι μόνο θα είναι ισχυρή στο μέλλον, αλλά θα είναι και υπεύθυνη, με την λογοδοσία σαφώς να βαρύνει τον προγραμματιστή και τους επόπτες της.