Ηγέτες της σκέψης
Ρίχνοντας φως στην Shadow AI

Σε όλους τους κλάδους, οι εργαζόμενοι αξιοποιούν ολοένα και περισσότερο τα εργαλεία Τεχνητής Νοημοσύνης (ΤΝ) για να μετασχηματίσουν τις καθημερινές λειτουργίες. Είτε πρόκειται για επαγγελματίες μάρκετινγκ που χρησιμοποιούν το ChatGPT για να σχεδιάζουν καμπάνιες είτε για μηχανικούς λογισμικού που γράφουν κώδικα με εργαλεία παραγωγής, η ΤΝ ενσωματώνεται αθόρυβα σε σχεδόν κάθε πτυχή της επιχείρησης. Στην πραγματικότητα, Το Έργο NANDA του MIT διαπίστωσαν ότι σε περισσότερο από το 90% των οργανισμών, οι εργαζόμενοι χρησιμοποιούν προσωπικούς λογαριασμούς chatbot για την υποστήριξη της καθημερινής τους εργασίας, συχνά χωρίς εποπτεία από το τμήμα IT, ωστόσο, μόνο το 40% των εταιρειών έχουν επίσημες συνδρομές σε εργαλεία μεγάλων γλωσσικών μοντέλων (LLM). Αυτή η αποσύνδεση μεταξύ της εγκεκριμένης και της μυστικής χρήσης τεχνητής νοημοσύνης έχει ανοίξει ένα νέο τυφλό σημείο ασφάλειας: σκιά AI.
Χωρίς εποπτεία, ευαίσθητα δεδομένα μπορούν να κοινοποιηθούν σε εξωτερικά μοντέλα, τα αποτελέσματα μπορεί να είναι ανακριβή ή μεροληπτικά και οι ομάδες συμμόρφωσης χάνουν την ορατότητα σχετικά με το πού και πώς υποβάλλονται σε επεξεργασία οι πληροφορίες. Καθώς οι εργαζόμενοι συνεχίζουν να πειραματίζονται με εργαλεία εκτός των εγκεκριμένων καναλιών, οι οργανισμοί πρέπει να επαναπροσδιορίσουν τη στρατηγική τους για τη διαχείριση της Τεχνητής Νοημοσύνης, διαφορετικά αυτοί οι κίνδυνοι θα συνεχίσουν να εμφανίζονται. Για τους CIO, η πλήρης απαγόρευση των εργαλείων Τεχνητής Νοημοσύνης δεν είναι η λύση, καθώς θα μπορούσε να επηρεάσει την ανταγωνιστική ικανότητα. Αντίθετα, η εστίαση θα πρέπει να είναι σε προσαρμόσιμα προστατευτικά κιγκλιδώματα που εξισορροπούν την καινοτομία με την υπεύθυνη διαχείριση κινδύνων.
Για να παραμένουν ένα βήμα μπροστά από τους κινδύνους που σχετίζονται με την Τεχνητή Νοημοσύνη, οι οργανισμοί θα πρέπει να θεσπίσουν πολιτικές Τεχνητής Νοημοσύνης που προωθούν την υπεύθυνη υιοθέτηση. Αυτές οι οδηγίες θα πρέπει να ενθαρρύνουν τους εργαζομένους να χρησιμοποιούν την Τεχνητή Νοημοσύνη εντός λογικών ορίων και κάθε πολιτική που ορίζεται πρέπει να ευθυγραμμίζεται με τις αξίες και την όρεξη για ανάληψη κινδύνου της εταιρείας. Για να επιτύχουν ένα επιτυχημένο πρόγραμμα, οι οργανισμοί πρέπει να ξεπεράσουν τα ξεπερασμένα μοντέλα διακυβέρνησης και τα παλαιότερα εργαλεία που δεν ανιχνεύουν ή δεν παρακολουθούν τη χρήση της Τεχνητής Νοημοσύνης σε ολόκληρη την επιχείρησή τους.
Ενώ η θέσπιση μιας πολιτικής για την Τεχνητή Νοημοσύνη είναι ένα σημαντικό βήμα, το πραγματικό κρίσιμο σημείο είναι να διασφαλιστεί ότι έχει σχεδιαστεί ώστε να είναι πρακτική, εφαρμόσιμη και ευθυγραμμισμένη με το καινοτόμο όραμα και τις ανάγκες συμμόρφωσης κάθε επιχείρησης, χωρίς να εμποδίζει την πρόοδό της.
Ακολουθούν τέσσερα βήματα που μπορούν να ακολουθήσουν οι οργανισμοί:
1. Προσδιορίστε το καλύτερο πλαίσιο
Οι επιχειρήσεις δεν χρειάζεται να ξεκινήσουν από το μηδέν. Αρκετά κορυφαία ιδρύματα έχουν ήδη αναπτύξει πλαίσια που προσφέρουν πολύτιμα σημεία αναφοράς. Πόροι από τον Οργανισμό Οικονομικής Συνεργασίας και Ανάπτυξης (ΟΟΣΑ), το Εθνικό Ινστιτούτο Προτύπων (NIST), Και ISO/IEC, μπορούν να παρέχουν καθοδήγηση σχετικά με την ασφαλή και αποτελεσματική διαχείριση της Τεχνητής Νοημοσύνης. Επιπλέον, αρχίζουν να παρεμβαίνουν κυβερνητικοί φορείς. Νέοι κανονισμοί από την Ευρωπαϊκή Ένωση (EU) καθορίζουν προσδοκίες σχετικά με τη διαφάνεια, την λογοδοσία και τη διακυβέρνηση. Μαζί, αυτοί οι πόροι θα βοηθήσουν στην παροχή μιας ισχυρής βάσης στις επιχειρήσεις, ώστε να δημιουργήσουν και να βελτιώσουν τα δικά τους πλαίσια που θα καθοδηγήσουν την υπεύθυνη υιοθέτηση της Τεχνητής Νοημοσύνης.
2. Αύξηση της ορατότητας της Τεχνητής Νοημοσύνης
Καθώς οι οργανισμοί χαράσσουν την πορεία τους προς την αποτελεσματική διαχείριση κινδύνων Τεχνητής Νοημοσύνης, είναι απαραίτητο οι ηγέτες ασφαλείας να αναπτύξουν μια σαφή κατανόηση του πώς χρησιμοποιείται στην πραγματικότητα η Τεχνητή Νοημοσύνη σε όλες τις δραστηριότητές τους. Θα πρέπει να επενδύσουν σε εργαλεία που βοηθούν στην παροχή ορατότητας στη δραστηριότητα σε όλες τις λειτουργίες. Αυτά τα εργαλεία μπορούν να παρακολουθούν και να έχουν πρόσβαση στη συμπεριφορά των χρηστών και δεν θα αφήσουν πέτρα στην άκρη όσον αφορά τον εντοπισμό των σημείων όπου χρησιμοποιείται η παραγωγική Τεχνητή Νοημοσύνη. Αυτή η γνώση είναι ζωτικής σημασίας όταν πρόκειται για τον εντοπισμό της χρήσης της σκιώδους Τεχνητής Νοημοσύνης και για την υποστήριξη των ηγετών στην αξιολόγηση των κινδύνων και την αντιμετώπισή τους.
3. Σχηματισμός Συμβουλίου Τεχνητής Νοημοσύνης
Μόλις επιτευχθεί η ορατότητα, οι επικεφαλής ασφαλείας μπορούν να τη χρησιμοποιήσουν για να ενημερώσουν νέες πολιτικές. Δεδομένου ότι η χρήση της Τεχνητής Νοημοσύνης επηρεάζει ολόκληρη την επιχείρηση, δεν θα πρέπει να απομονώνουν τη διαδικασία λήψης αποφάσεων. Οι CISO θα πρέπει να εξετάσουν το ενδεχόμενο δημιουργίας ενός συμβουλίου Τεχνητής Νοημοσύνης που θα συγκεντρώνει βασικούς ενδιαφερόμενους από την ασφάλεια, το νομικό τμήμα, την πληροφορική και το C-suite. Στην πραγματικότητα, Gartner αναφέρει ότι το 55% των οργανισμών έχουν ήδη συστήσει ένα συμβούλιο Τεχνητής Νοημοσύνης, ενώ το 54% έχει διορίσει έναν επικεφαλής Τεχνητής Νοημοσύνης ή έναν ειδικό επικεφαλής Τεχνητής Νοημοσύνης για την επίβλεψη της στρατηγικής και της εφαρμογής.
Αυτές οι διαλειτουργικές ομάδες μπορούν να αξιολογήσουν τόσο τους κινδύνους όσο και τις ευκαιρίες που παρουσιάζουν τα εργαλεία Τεχνητής Νοημοσύνης, είτε εγκεκριμένα είτε όχι, τα οποία αρχίζουν να διεισδύουν στο επιχειρηματικό τους περιβάλλον. Στη συνέχεια, μπορούν να διαμορφώσουν από κοινού νέες πολιτικές που να ανταποκρίνονται στις ανάγκες των επιχειρήσεών τους και να εξισορροπούν τον κίνδυνο.
Για παράδειγμα, εάν το συμβούλιο εντοπίσει ένα δημοφιλές εργαλείο Τεχνητής Νοημοσύνης που χρησιμοποιείται χωρίς έγκριση και το οποίο δημιουργεί ανησυχίες για την ασφάλεια, μπορεί να συστήσει την απαγόρευση αυτής της εφαρμογής, εγκρίνοντας παράλληλα μια ασφαλέστερη εναλλακτική λύση. Αυτές οι πολιτικές θα πρέπει να ενισχυθούν με επενδύσεις σε ελέγχους ασφαλείας και εγκεκριμένες πλατφόρμες Τεχνητής Νοημοσύνης που πληρούν τα πρότυπα συμμόρφωσης. Καθώς νέες εξελίξεις εμφανίζονται στην αγορά, το συμβούλιο μπορεί επίσης να εισαγάγει μια επίσημη διαδικασία για τους υπαλλήλους να προτείνουν εργαλεία για έλεγχο, βοηθώντας τον οργανισμό να παραμένει προσαρμοστικός και να συμμορφώνεται με τη στρατηγική του για την Τεχνητή Νοημοσύνη.
4. Ενίσχυση της εκπαίδευσης στην Τεχνητή Νοημοσύνη
Η εκπαίδευση και η αλληλεπίδραση των εργαζομένων σχετικά με την Τεχνητή Νοημοσύνη θα αποτελέσει ένα ακόμη ουσιαστικό μέρος της διασφάλισης της αποδοχής σε ολόκληρο τον οργανισμό και της μείωσης της χρήσης της παραϊατρικής τεχνητής νοημοσύνης. Ακόμα και με τα σωστά μοντέλα διακυβέρνησης, η επιτυχία εξαρτάται από το πόσο καλά τα κατανοούν και τα υιοθετούν οι εργαζόμενοι.
Σε μια Pew Research Στην έρευνα, μεταξύ των εργαζομένων που είχαν λάβει εκπαίδευση στην εργασία (51%), μόνο το ένα τέταρτο (24%) δήλωσε ότι σχετιζόταν με τη χρήση της Τεχνητής Νοημοσύνης. Οι οργανισμοί θα πρέπει να διασφαλίζουν ότι διαθέτουν προγράμματα εκπαίδευσης στην Τεχνητή Νοημοσύνη, καθώς μπορούν να βοηθήσουν τους εργαζομένους να κατανοήσουν τις ευκαιρίες και τις λειτουργίες που έχουν στη διάθεσή τους. Η αυξημένη αναβάθμιση των δεξιοτήτων μπορεί επίσης να τους βοηθήσει να εξελιχθούν στην καριέρα τους και να αισθάνονται πιο ικανοποιημένοι στη θέση τους.
Τα προγράμματα εκπαίδευσης στην Τεχνητή Νοημοσύνη θα πρέπει να επικεντρώνονται πέρα από τη βασική χρήση και τη συμμόρφωση, ώστε να βοηθούν τις ομάδες να κατανοήσουν το ευρύτερο πλαίσιο της Τεχνητής Νοημοσύνης και τον τρόπο λειτουργίας της στο οικοσύστημα των επιχειρήσεών τους. Τα θέματα που πρέπει να καλυφθούν περιλαμβάνουν γιατί είναι σημαντική η υπεύθυνη χρήση της Τεχνητής Νοημοσύνης, ποιες πολιτικές υπάρχουν για την προστασία τόσο της επιχείρησης όσο και των πελατών της και πώς να εντοπίζονται πιθανοί κίνδυνοι για τη διαχείριση δεδομένων ή την προστασία της ιδιωτικής ζωής. Όταν οι εργαζόμενοι είναι εξοπλισμένοι με τις κατάλληλες γνώσεις, έχουν τη δυνατότητα να γίνουν ενεργοί εταίροι στην ασφαλή καινοτομία.
Διαμορφώνοντας το μέλλον της υπεύθυνης Τεχνητής Νοημοσύνης
Η σκιώδης τεχνητή νοημοσύνη (Shadow AI) δεν πρόκειται να εξαφανιστεί σύντομα. Καθώς οι γενετικές τεχνολογίες ενσωματώνονται όλο και περισσότερο στις καθημερινές ροές εργασίας, οι προκλήσεις για τους οργανισμούς θα εντείνονται. Οι ηγέτες αντιμετωπίζουν τώρα την επιλογή να αντιμετωπίσουν την σκιώδη τεχνητή νοημοσύνη ως ανεξέλεγκτη απειλή ή να την αναγνωρίσουν ως ευκαιρία για μεγιστοποίηση της αποδοτικότητας και της παραγωγικότητας, όταν διαχειρίζονται σωστά.
Η ανάπτυξη μιας πολιτικής ή ενός διοικητικού συμβουλίου για την Τεχνητή Νοημοσύνη δεν είναι μια εφάπαξ πράξη. Όπως ακριβώς η Τεχνητή Νοημοσύνη εξελίσσεται ραγδαία, έτσι πρέπει να εξελίσσεται και η στρατηγική μιας επιχείρησης. Η Τεχνητή Νοημοσύνη μπορεί να βοηθήσει στην καθοδήγηση πιο έξυπνων αποφάσεων, στην επιτάχυνση της καινοτομίας και στην ενίσχυση της παραγωγικότητας σε κάθε λειτουργία. Αλλά για να διατηρήσουν αυτά τα κέρδη, οι εργαζόμενοι πρέπει να κατανοήσουν ποια εργαλεία έχουν στη διάθεσή τους και πώς να τα χρησιμοποιούν υπεύθυνα. Όσοι πετύχουν θα παραμείνουν ευέλικτοι, βελτιώνοντας προληπτικά τις πολιτικές τους για να παραμένουν μπροστά από την αλλαγή, όχι να την κυνηγούν.








