Connect with us

Όταν το AI εισέρχεται στις λειτουργίες, η εξηγήσιμη διάσταση γίνεται μη διαπραγματεύσιμη

Ηγέτες σκέψης

Όταν το AI εισέρχεται στις λειτουργίες, η εξηγήσιμη διάσταση γίνεται μη διαπραγματεύσιμη

mm

Η υιοθέτηση AI από τις επιχειρήσεις έχει εισέλθει σε μια πιο πρακτική φάση. Για τους τεχνολογικούς ηγέτες, η πρόκληση δεν είναι πλέον το να πείσουν τον οργανισμό ότι το AI έχει δυνατότητες. Είναι να διασφαλίσουν ότι τα συστήματα που επηρεάζουν τις λειτουργικές αποφάσεις μπορούν να κατανοηθούν, να διευθυνθούν και να υπερασπισθούν.

Το AI κερδίζει τη θέση του στην επιχείρηση όταν οι άνθρωποι είναι πρόθυμοι να βασιστούν σ’ αυτό. Αυτή η εμπιστοσύνη δεν βασίζεται μόνο στα στατιστικά στοιχεία της απόδοσης. Εξαρτάται από το εάν οι ομάδες νιώθουν ότι διατηρούν τον έλεγχο όταν η αυτοματοποίηση γίνεται μέρος της καθημερινής ροής εργασιών.

Σε πολλές οργανώσεις, αυτό το αίσθημα του ελέγχου παραμένει αβέβαιο.

Γιατί η αδιαφάνεια επιβραδύνει την υιοθέτηση

Το AI είναι πλέον ενσωματωμένο σε όλες τις IT λειτουργίες, από τη διαδρομή των αιτημάτων υπηρεσίας έως τη συσχετίση περιστατικών και τη σχεδιασμό ικανοτήτων. Αυτά είναι περιβάλλοντα όπου οι αποφάσεις είναι διασυνδεμένες και τα λάθη εξαπλώνονται γρήγορα. Όταν τα εξόδους του AI εμφανίζονται χωρίς контέκστ, οι ομάδες συχνά διστάζουν. Η αυτοματοποίηση μπορεί να έχει αναπτυχθεί τεχνικά, αλλά οι συστάσεις της ελέγχονται, καθυστερούν ή παραμερίζονται σιωπηλά.

Αυτό το συμπεριφορά συχνά παρερμηνεύεται ως αντίσταση στην αλλαγή. Στην πραγματικότητα, αντανακλά την επαγγελματική ευθύνη σε περιβάλλοντα υψηλού κινδύνου. Δημόσια παραδείγματα αποτυχίας του AI έχουν εντείνει αυτή την προφύλαξη. Όταν τα αυτοματοποιημένα συστήματα παράγουν εξόδους που φαίνονται自信 αλλά αποδεικνύονται λανθασμένα, η ζημιά σπάνια προκαλείται μόνο από την φιλοδοξία. Προέρχεται από την αδιαφάνεια. Αν κανείς δεν μπορεί να εξηγήσει πώς μια σύγκλιση έφτασε, η εμπιστοσύνη διαβρώνεται, ακόμη και αν το σύστημα είναι συνήθως ακριβές.

Εντός των ομάδων IT, αυτό εκδηλώνεται υποτλε. Η αυτοματοποίηση λειτουργεί σε συμβουλευτικό τρόπο αντί για εκτελεστικό τρόπο. Οι μηχανικοί παραμένουν υπεύθυνοι για τα αποτελέσματα, αλλά αναμένεται να εμπιστεύονται τη λογική που δεν μπορούν να επιθεωρήσουν. Με τον καιρό, αυτή η ανισορροπία δημιουργεί τριβή. Το AI είναι παρόν, αλλά η αξία του περιορίζεται.

Μια διαφανής διαδικασία AI

Μεγαλύτερη διαφάνεια και εξηγήσιμη διάσταση μπορούν να αντιμετωπίσουν αυτό το πρόβλημα, αποκαθιστώντας την ευθύνη στη λήψη αυτοματοποιημένων αποφάσεων. Το εξηγήσιμο AI δεν σημαίνει την αποκάλυψη κάθε εσωτερικής υπολογισμού. Σημαίνει την παροχή ενημέρωσης που είναι σχετική με τους ανθρώπινους χειριστές· ποια δεδομένα επηρέασαν μια απόφαση, ποίες συνθήκες είχαν το μεγαλύτερο βάρος και πώς αξιολογήθηκαν τα επίπεδα εμπιστοσύνης. Αυτό το контέκστ επιτρέπει στις ομάδες να κρίνουν εάν η έξοδος συμφωνεί με την λειτουργική πραγματικότητα.

Γνωστό και ως white-box AI, εξηγήσιμο AI δημιουργεί ένα είδος ερμηνευτικού στρώματος που εξηγεί πώς οι αποφάσεις του AI έχουν ληφθεί, αντί να αφήνει τις διαδικασίες και τη λογική του κρυφές από την όραση. Αυτό δεν σημαίνει μόνο ότι τα συστήματα AI μπορούν να γίνουν μέρος eines πιο υπεύθυνου πλαισίου, αλλά και ότι οι χρήστες κατανοούν πώς λειτουργεί κάθε σύστημα. Αυτό σημαίνει επίσης την ικανότητα να αναγνωρίσουν τις αδυναμίες των μοντέλων AI και να προστατεύσουν από τις προκαταλήψεις.

Κρίσιμο, η εξηγήσιμη διάσταση σημαίνει ότι όταν κάτι πάει λάθος, οι ομάδες μπορούν να ανατρέξουν στη λογική οδό, να αναγνωρίσουν τα αδύναμα σήματα και να βελτιώσουν τη διαδικασία. Χωρίς αυτή τη διαφάνεια, τα λάθη είτε επαναλαμβάνονται είτε αποφεύγονται εντελώς με την απενεργοποίηση της αυτοματοποίησης.

Εξηγήσιμη διάσταση σε δράση

Σκεφτείτε τη διαχείριση περιστατικών. Το AI χρησιμοποιείται συχνά για να ομαδοποιήσει τις ειδοποιήσεις μαζί και να προτείνει πιθανές αιτίες. Σε μεγάλες επιχειρηματικές περιβάλλοντα, μια λανθασμένη ταξινόμηση μιας εξάρτησης κατά τη διάρκεια ενός μεγάλου περιστατικού μπορεί να καθυστερήσει την επίλυση για ώρες, τραβώντας πολλές ομάδες σε παράλληλες έρευνες ενώ οι υπηρεσίες που προσανατολίζονται στο πελάτη παραμένουν υποβαθμισμένες. Όταν αυτές οι προτάσεις συνοδεύονται από μια σαφή εξήγηση για ποια συστήματα συμμετείχαν, πώς οι εξαρτήσεις προσεγγίστηκαν ή ποια προηγούμενα περιστατικά αναφέρθηκαν, οι μηχανικοί μπορούν να κρίνουν τη σύσταση γρήγορα. Αν αποδειχθεί λανθασμένη, αυτή η ενημέρωση μπορεί να χρησιμοποιηθεί για να βελτιώσει τόσο το μοντέλο όσο και τη διαδικασία.

Χωρίς αυτή τη διαφάνεια, οι ομάδες επανέρχονται στη χειροκίνητη διάγνωση, ανεξάρτητα από το πόσο προηγμένο είναι το AI.

Ευθύνη και ιδιοκτησία

Η εξηγήσιμη διάσταση αλλάζει επίσης τον τρόπο με τον οποίο η ευθύνη διανέμεται. Σε λειτουργικά περιβάλλοντα, η ευθύνη δεν εξαφανίζεται απλώς επειδή μια απόφαση αυτοματοποιήθηκε. Κάποιος πρέπει ακόμη να στηρίξει το αποτέλεσμα. Όταν το AI μπορεί να εξηγήσει τον εαυτό του, η ευθύνη γίνεται σαφέστερη και πιο διαχειρίσιμη. Οι αποφάσεις μπορούν να αναθεωρηθούν, να δικαιολογηθούν και να βελτιωθούν χωρίς να καταφεύγουν σε αμυντικές λύσεις.

Υπάρχει επίσης ένα οφέλους διακυβέρνησης, αν και σπάνια είναι ο πρωταρχικός мотιβатор εσωτερικά. Τα υπάρχοντα πλαισιά διαφάνειας και ευθύνη 이미 απαιτούν από τις οργανώσεις να εξηγήσουν τις αυτοματοποιημένες αποφάσεις σε certains περιβάλλοντα. Όσο η ρυθμιστική εξέλιξη του AI συνεχίζει να αναπτύσσεται, τα συστήματα που λείπουν διαφάνειας μπορεί να εκθέσουν τις οργανώσεις σε απαραίτητο κίνδυνο.

Ωστόσο, η μεγαλύτερη αξία της εξηγήσιμης διάστασης έγκειται στη ανθεκτικότητα παρά στη συμμόρφωση. Οι ομάδες που κατανοούν τα συστήματά τους ανακτούν γρηγορότερα. Επιλύουν περιστατικά πιο αποτελεσματικά και δαπανών λιγότερο χρόνο συζητώντας εάν η αυτοματοποίηση πρέπει να εμπιστεύεται στην αρχή.

Σχεδιασμός AI για λειτουργική αριστεία

Οι μηχανικοί εκπαιδεύονται να αμφισβητούν τις υποθέσεις, να επιθεωρούν τις εξαρτήσεις και να ελέγχουν τα αποτελέσματα. Όταν η αυτοματοποίηση υποστηρίζει αυτές τις ενστικτώδεις αντί για να τις παρακάμπτει, η υιοθέτηση γίνεται συνεργατική και μέρος της διαδικασίας αντί να επιβληθεί δομή.

Υπάρχει, αναπόφευκτα, ένα κόστος για την κατασκευή συστημάτων με αυτόν τον τρόπο. Το εξηγήσιμο AI απαιτεί πειθαρχημένες πρακτικές δεδομένων, σκέψεις σχεδιασμού και εξειδικευμένο προσωπικό που μπορεί να ερμηνεύσει τα εξόδους ευθύμως. Ίσως δεν κλιμακωθεί τόσο γρήγορα όσο τα αδιαφανή μοντέλα που βελτιστοποιούνται αποκλειστικά για ταχύτητα ή καινοτομία. Ωστόσο, η απόδοση αυτής της επένδυσης είναι η σταθερότητα.

Οι οργανώσεις που προτεραιοποιούν την εξηγήσιμη διάσταση βλέπουν λιγότερες ακινητοποιημένες πρωτοβουλίες και λιγότερη λανθασμένη λήψη αποφάσεων. Η αυτοματοποίηση γίνεται ένα αξιόπιστο στρώμα εντός των λειτουργιών αντί για ένα παράλληλο πείραμα που τρέχει σε απομόνωση. Ο χρόνος για αξία βελτιώνεται όχι επειδή τα συστήματα είναι ταχύτερα, αλλά επειδή οι ομάδες είναι πρόθυμες να τα χρησιμοποιήσουν πλήρως.

Κλιμάκωση υπεύθυνα

Όσο το AI γίνεται μόνιμο στοιχείο της υποδομής της επιχείρησης, η επιτυχία θα οριστεί λιγότερο από την φιλοδοξία και περισσότερο από την αξιοπιστία. Τα συστήματα που μπορούν να εξηγήσουν τις αποφάσεις τους είναι πιο εύκολο να εμπιστευτούν, πιο εύκολο να βελτιώσουν και πιο εύκολο να στηρίξουν όταν τα αποτελέσματα αμφισβητούνται.

Στα λειτουργικά περιβάλλοντα, η νοημοσύνη κλιμακώνεται μόνο όταν η κατανόηση παραμένει στο ίδιο επίπεδο με την αυτοματοποίηση.

O VimalRaj Sampathkumar, Τεχνικός Διευθυντής - Ηνωμένο Βασίλειο & Ιρλανδία, ManageEngine, είναι ένας Προπωλητής και Στρατηγικός Διευθυντής Λογαριασμών με 13 χρόνια εμπειρίας σε Τεχνικές Πωλήσεις, Διαχείριση Λογαριασμών και Επιτυχία Πελατών. Έχει βαθιά τεχνική εξειδίκευση στη διαβούλευση και εφαρμογή εφαρμογών ITSM, ITOM, SIEM, Διαχείριση Τερματικών, CRM, ATS και HCM/HRIS παγκοσμίως. Η εξειδίκευσή του έχει sido να οδηγεί την αύξηση των εσόδων και της μετοχής της αγοράς με τη συνεχής παροχή λύσεων που επικεντρώνονται στον πελάτη, αποδεικνύοντας την αξία του προϊόντος και χτίζοντας τις βάσεις για πιστές, μακροχρόνιες σχέσεις με τους πελάτες. Απολαμβάνει το κρίκετ, τη ανάγνωση και τα ταξίδια στη διαθέσιμη ώρα του.