Connect with us

Γιατί η Τυφλή Εμπιστοσύνη στο AI Μπορεί να Είναι η Χειρότερη Απόφασή Σου Μέχρι Τώρα

Ηγέτες σκέψης

Γιατί η Τυφλή Εμπιστοσύνη στο AI Μπορεί να Είναι η Χειρότερη Απόφασή Σου Μέχρι Τώρα

mm

Το 1979, ένα Εγχειρίδιο Εκπαίδευσης της IBM έκανε μια απλή αλλά εντυπωσιακή προειδοποίηση: «Ένας υπολογιστής δεν μπορεί ποτέ να θεωρηθεί υπεύθυνος· इसलिए, ένας υπολογιστής δεν πρέπει ποτέ να λαμβάνει μια απόφαση διαχείρισης». Και περισσότερο από 45 χρόνια αργότερα, αυτή η δήλωση μοιάζει με μια αγνοημένη προφητεία.

Το 2025, το AI δεν βοηθά μόνο· λαμβάνει αυτόνομες αποφάσεις, και σε πολλές περιπτώσεις, όχι μόνο αποφασίζει αλλά και οδηγεί. Πράγματι, γύρω στο 74% των εκτελεστικών είναι πιο自信 στο AI για συμβουλές επιχειρήσεων σε σχέση με συναδέλφους ή φίλους, το 38% εμπιστεύεται το AI να λαμβάνει αποφάσεις επιχειρήσεων για αυτούς, και το 44% υποτασσόμαστε στο τεχνολογικό λόγο hơn από τις δικές τους εντυπώσεις. Η μετατόπιση είναι σαφής· το AI είναι η νέα ενστικτώδης αντίδραση.

Αλλά υπάρχει ένα πρόβλημα. Η εμπιστοσύνη στο AI είναι δυνατή μόνο εάν ο αλγόριθμος αξίζει να εμπιστευτεί. Και όταν η εμπιστοσύνη τοποθετείται τυφλά, ιδιαίτερα σε μαύρες κούκλες που δεν μπορούμε να κατανοήσουμε ή να ελέγξουμε, είναι ένα ρίσκο που παρουσιάζεται ως πρόοδος. Όπως και με την ανθρώπινη ηγεσία, η εμπιστοσύνη χωρίς ευθύνη είναι επικίνδυνη, και όταν το AI κάνει λάθος, ποιος αναλαμβάνει την ευθύνη;

Όταν το Εργαλείο Γίνεται ο Αρχηγός

Αυτό που ξεκίνησε ως εργαλείο για την απλοποίηση των εργασιών του πίσω γραφείου τώρα χρησιμοποιείται σε βασικές επιχειρηματικές διαδικασίες. Αλλά οι εταιρείες δεν χρησιμοποιούν μόνο το AI για την υποστήριξη των ανθρώπινων αποφάσεων· τώρα εμπιστεύονται το AI, ιδιαίτερα το γενετικό AI (GenAI), να λαμβάνει επιχειρηματικές αποφάσεις, από την επιχειρηματική στρατηγική μέχρι την εξυπηρέτηση πελατών, την οικονομική μοντελοποίηση και άλλα.

Αυτή η μετατόπιση είναι κατανοητή. Το AI δεν αποσπάται, δεν ξεχνά οδηγίες ή δεν αφήνει τα συναισθήματα να σκεπάζουν την κρίση του. Για πολλές εταιρείες, αυτό προσφέρει ένα ελκυστικό αντίδοτο στα ρίσκα του ανθρώπινου λάθους. Ωστόσο, μια κρίσιμη ερώτηση παραμένει: μπορούμε να εμπιστευθούμε το AI να είναι ο αρχηγός και να λαμβάνει αποφάσεις ανεξάρτητα;

Δεν είναι μια απλή απάντηση, αλλά ένας τρόπος να το δούμε είναι πώς κρίνουμε την αξιοπιστία των ανθρώπων: από την ικανότητά τους, την αξιοπιστία και τη σαφή πρόθεση. Τα ίδια принципία ισχύουν για το AI.

Για να είναι αξιοπιστό, ένα σύστημα AI πρέπει να παρέχει αποτελέσματα που είναι ακριβή, έγκαιρα και κατάλληλα. Αλλά το επίπεδο εμπιστοσύνης και το περιθώριο λάθους ποικίλλουν ανάλογα με το контέκστ. Για παράδειγμα, όταν διαγιγνώσκεται καρκίνος από ιατρικές εικόνες, η μπάρα για αποτυχία είναι εξαιρετικά χαμηλή. Αντιθέτως, όταν γεννιούνται ιδέες για μια εκστρατεία μάρκετινγκ, υπάρχει περισσότερος χώρος για πειραματισμό.

Έχουμε δει το AI να χρησιμοποιείται για την αυτόνομη λήψη αποφάσεων σε περιοχές όπως οι εγκρίσεις πίστωσης, με τράπεζες που χρησιμοποιούν αλγόριθμους για να καθορίσουν την ικανότητα δανεισμού σε δευτερόλεπτα. Οι λιανοπωλητές χρησιμοποιούν το AI για τη διαχείριση αποθεμάτων και τιμών χωρίς ανθρώπινη επέμβαση. Αλλά έχουμε επίσης δει αποτυχίες—όπως τα αυτονομικά οχήματα που κρίνουν λανθασμένα τις οδικές συνθήκες.

Μια προειδοποιητική ιστορία δείχνει τα ρίσκα της τοποθέτησης υπερβολικής εμπιστοσύνης στο AI χωρίς επαρκή εποπτεία. Ο Derek Mobley—ένας μαύρος άντρας πάνω από 40—αίτησε σε περισσότερες από 100 θέσεις μέσω του AI-κίνητου συστήματος προσλήψεων της Workday από το 2017 και απορρίφθηκε κάθε φορά. Κατηγόρησε διακρίσεις βάσει ηλικίας και φυλής. Τον Μάιο του 2025, το δικαστήριο έδωσε την έγκριση για μια εθνική συλλογική δίκη. Η τάξη περιλαμβάνει όλους τους αιτούντες ηλικίας 40+ που αίτησαν μέσω της Workday από Σεπτέμβριο 2020 και απορρίφθηκαν βάσει συστάσεων AI.

Αυτό το παράδειγμα κάνει ένα σημαντικό σημείο: το AI λείπει από συναισθηματική νοημοσύνη, ηθική σκέψη ή φυσική αίσθηση δικαιοσύνης. Και既然 το AI μετακινείται από ανθρώπινο βοηθό σε ανεξάρτητο αποφασιστή, υπάρχει τώρα ένα κενό ευθύνης. Όταν οι αλγόριθμοι επιτρέπεται να τρέχουν χωρίς ανθρώπινες ελέγχους και ισορροπίες, possono και κάνουν κακές αποφάσεις και ενισχύουν τις υφιστάμενες προκαταλήψεις.

Το Ερώτημα Γύρω από τις Μαύρες Κούκλες

Μαύρες κούκλες—όταν ένα σύστημα AI και λογική δεν είναι πλήρως ορατά—are όλο και πιο συχνές. Αν και μπορεί να έχουν ορατές στρώσεις, οι dévelopers και οι χρήστες δεν μπορούν να δουν τι συμβαίνει σε κάθε στρώση, καθιστώντας τα αδιαφανή.

Για παράδειγμα, το ChatGPT είναι μια μαύρη κούκλα, καθώς ακόμη και οι δημιουργοί του δεν είναι βέβαιοι για το πώς λειτουργεί,既然 έχει εκπαιδευτεί σε τόσο μεγάλες συνόλους δεδομένων. Αλλά λόγω της έλλειψης διαφάνειας, είναι कभδήποτε εντάξει να ‘εμπιστευθούμε’ ένα μοντέλο AI χωρίς να κατανοήσουμε πλήρως πώς λειτουργεί;

Σύντομα, όχι: οι ψευδαισθήσεις του AI γίνονται χειρότερες. Αυτό σημαίνει σε σενάρια υψηλού κινδύνου, όπως οι οικονομικές αποφάσεις, οι νομικές συμβουλές και οι ιατρικές εντυπώσεις, το AI απαιτεί αυστηρή επικύρωση, διασταύρωση και ανθρώπινη εποπτεία.

Η αγωγή της Disney και της Universal που κατατέθηκε τον Ιούνιο του 2025 ενισχύει αυτό το σημείο. Οι στούντιο ισχυρίζονται ότι εργαλεία GenAI εκπαιδεύτηκαν σε πνευματικά δικαιώματα για να δημιουργήσουν νέο περιεχόμενο χωρίς συναίνεση. Αυτή η περίπτωση υπογραμμίζει μια νέα πραγματικότητα: όταν οι εταιρείες αναπτύσσουν μοντέλα AI που δεν κατανοούν πλήρως, μπορεί να θεωρηθούν υπεύθυνες για τις αποφάσεις που λαμβάνονται. Και η άγνοια δεν είναι άμυνα· είναι μια ευθύνη.

Ωστόσο, συχνά τοποθετούμε εμπιστοσύνη σε σύνθετα συστήματα που δεν κατανοούμε. Για παράδειγμα, οι περισσότεροι επιβάτες αεροπορικών ταξιδιών δεν μπορούν να εξηγήσουν τη φυσική της πτήσης,然而 οι άνθρωποι επιβιβάζονται σε αεροπλάνα με εμπιστοσύνη γιατί έχουμε χτίσει εμπιστοσύνη μέσω επαναλαμβανόμενης έκθεσης, συλλογικής εμπειρίας και ενός ισχυρού εγγράφου ασφάλειας.

Η ίδια λογική μπορεί να εφαρμοστεί ξανά στο AI. Δεν είναι εύλογο να περιμένουμε από όλους να κατανοήσουν πώς λειτουργούν πραγματικά τα LLMs. Αλλά η εμπιστοσύνη δεν χτίζεται στην κατανόηση· απαιτεί οικειότητα, διαφάνεια σχετικά με τις περιορισμοί και einen αποδεδειγμένο τρόπο αξιοπιστίας. Οι μηχανικοί αεροδιαστημικής γνωρίζουν ποια τεστ να τοποθετήσουν και ποια λάθη μοιάζουν, και πρέπει να απαιτήσουμε το ίδιο από τους παρόχους GenAI. Η θεμελιώδης αρχή του AI πρέπει να είναι η εμπιστοσύνη, αλλά επικύρωση.

Επιπλέον, οι ηγέτες των επιχειρήσεων συχνά πιστεύουν ότι το AI θα είναι το μαγικό βέλος που θα λύσει όλα τα προβλήματα της επιχείρησης. Ωστόσο, αυτό το μύθο προκαλεί πολλές εταιρείες όταν ενσωματώνουν το AI. Οι ηγέτες μπορεί να προτιμούν σύνθετα και sophistikated μοντέλα, αλλά μια απλούστερη λύση μπορεί να είναι πιο κατάλληλη εάν είχαν thực hiện μια ανάλυση κόστους-ωφέλειας. Το AI είναι ένα ισχυρό όργανο, αλλά δεν είναι κατάλληλο για κάθε εργασία. Οι εταιρείες πρέπει να αναγνωρίσουν το πρόβλημα πριν επιλέξουν ένα εργαλείο.

Ανακατασκευή της Εμπιστοσύνης στο AI

Ενώ είναι σαφές ότι η τυφλή εμπιστοσύνη στο AI είναι ένα ζήτημα, τα συστήματα και οι αλγόριθμοι AI μπορούν να είναι το καλύτερο εργαλείο που μια επιχείρηση θα μπορούσε να έχει—όταν χρησιμοποιούνται με ασφάλεια.

Για τις επιχειρήσεις που επιθυμούν να αξιοποιήσουν τα εργαλεία AI, το πρώτο που πρέπει να ερευνήσουν είναι η due diligence του προμηθευτή. Όταν μια επιχείρηση έχει αναγνωρίσει μια περιοχή που θα μπορούσε να ωφεληθεί από την αποτελεσματικότητα του AI, οι ηγέτες της επιχείρησης πρέπει να αξιολογήσουν τους προμηθευτές όχι μόνο με βάση τις performances αλλά και με βάση τους ελέγχους διακυβέρνησης. Αυτό περιλαμβάνει την ανασκόπηση του πώς αναπτύσσονται τα μοντέλα, εάν υπάρχουν εργαλεία εξηγήσεως, πώς παρακολουθείται η προκατάληψη και εάν υπάρχουν διαδρομές ελέγχου. Η επιλογή eines προμηθευτή με διαφανείς διαδικασίες είναι απαραίτητη για την μείωση του κινδύνου από την αρχή.

Πιθανότατα το πιο σημαντικό σημείο όταν χτίζουμε εμπιστοσύνη στα συστήματα AI είναι η διασφάλιση της διακυβέρνησης των δεδομένων με καθαρά, αντιπροσωπευτικά και καλά τεκμηριωμένα σύνολα δεδομένων. Όπως λέει το ρητό: σκουπίδια μέσα, σκουπίδια έξω. Εάν τα δεδομένα είναι ελλιπή, προκατειλημμένα ή ανακριβή, ακόμη και το πιο προηγμένο μοντέλο θα παράγει αξιόπιστα αποτελέσματα.

Για να διασφαλίσουμε ότι τα δεδομένα είναι έτοιμα για το AI, οι επιχειρήσεις πρέπει:

  • Να ελέγξουν τα υπάρχοντα σύνολα δεδομένων για κενά και διπλότυπα, και να ελέγξουν τις πηγές προκατάληψης

  • Να τυποποιήσουν τα μορφότυπα δεδομένων

  • Να εφαρμόσουν πολιτικές διακυβέρνησης δεδομένων που ορίζουν την ιδιοκτησία και τον έλεγχο πρόσβασης

Ένα άλλο κρίσιμο βήμα για τους ηγέτες των επιχειρήσεων είναι να διεξάγουν δοκιμές στρες υπό διαφορετικές συνθήκες. Αν και ένα μοντέλο μπορεί να κάνει καλά σε ελεγχόμενες δοκιμές, είναι κρίσιμο να κατανοήσουμε τις περιορισμοί του μοντέλου όταν αντιμετωπίζεται με νέες δεδομένες ή εισόδους που δεν περίμενε. Αυτός είναι ο λόγος για τον οποίο είναι σημαντικό να δοκιμάσουμε το AI σε διάφορες καταστάσεις, με διαφορετικούς τύπους χρηστών, διάφορες περιπτώσεις χρήσης και δεδομένα από διαφορετικές χρονικές περιόδους.

Η επικύρωση του AI είναι επίσης μια συνεχής εργασία. Όπως τα δεδομένα αλλάζουν με την πάροδο του χρόνου, ακόμη και τα αξιόπιστα μοντέλα AI μπορούν να χάσουν ακρίβεια. Αυτός είναι ο λόγος για τον οποίο η τακτική παρακολούθηση έχει σημασία. Οι επιχειρήσεις πρέπει να παρακολουθούν πώς το μοντέλο εκτελείται καθημερινά: είναι ακόμη ακριβές; Ή οι ψευδείς θετικοί αυξάνονται; Και όπως και κάθε σύστημα που χρειάζεται συντήρηση, τα μοντέλα πρέπει να επαναεκπαιδεύονται τακτικά με νέα δεδομένα για να παραμείνουν σχετικά.

Το AI δεν είναι αξιοπιστό ή αξιόπιστο· διαμορφώνεται από τα δεδομένα που μαθαίνει, τους ανθρώπους που το δημιουργούν και τους κανόνες που το κυβερνούν. Όπως το AI εξελίσσεται από ένα χρήσιμο εργαλείο σε einen επιχειρηματικό σύμβουλο, οι ηγέτες έχουν την επιλογή να το χρησιμοποιήσουν όχι μόνο αλλά και με σκέψη και ηθική. Εάν το κάνουμε σωστά, το AI δεν θα είναι μόνο ισχυρό στο μέλλον αλλά και υπεύθυνο, με την ευθύνη να καθίσταται σαφώς με τον dévelopερ και τους επόπτες.

Ο Martin Lewit είναι ο Αντιπρόεδρος (Senior Vice President) της Nisum, einem παγκόσμιου συνεργάτη συμβούλων που ειδικεύεται στην ψηφιακή εμπορία και εξέλιξη που κατασκευάζει πλατφόρμες που βασίζονται στην τεχνητή νοημοσύνη και προσωποποιημένες λύσεις που ανοίγουν την ανάπτυξη, βελτιώνουν τις λειτουργίες και δημιουργούν μακροχρόνια αξία.

Με εκτεταμένη εμπειρία στη λύση σύνθετων επιχειρηματικών προκλήσεων με καινοτόμες λύσεις, τα ενδιαφέροντα του Martin περιλαμβάνουν την ανάπτυξη και την εκπαίδευση εκείνων που εργάζονται μαζί του και τη δημιουργία συνδέσεων που δημιουργούν νέες και ενθουσιώδεις ευκαιρίες, παρέχοντας αποτελεσματική ηγεσία, στρατηγική όραση και καθημερινή εστίαση στην κατασκευή μιας καινοτόμου κουλτούρας, υπό το σύνθημα της εταιρείας "Χτίζοντας την επιτυχία μαζί".