Connect with us

Γιατί η απαγόρευση του AI αυξάνει τους κινδύνους ασφαλείας και πώς οι ιδρύματα πρέπει να ανταποκριθούν

Ηγέτες σκέψης

Γιατί η απαγόρευση του AI αυξάνει τους κινδύνους ασφαλείας και πώς οι ιδρύματα πρέπει να ανταποκριθούν

mm

Σε όλη τη διάρκεια των ΗΠΑ, οι σχολικές περιφέρειες και οι οργανισμοί του δημόσιου τομέα προχωρούν στην περιορισμό ή την αποκλεισμό της πρόσβασης σε τεχνολογίες γεννητικού AI (GenAI) ή συγκεκριμένα εργαλεία. Στο Κολοράντο, η σχολική περιφέρεια Boulder Valley απαγόρευσε πρόσφατα το ChatGPT στα δίκτυα της περιφέρειας, επικαλούμενη ανησυχίες σχετικά με την κακοποίηση, την ασφάλεια και την ακαδημαϊκή ακεραιότητα.

Το ένστικτο να μειώσει την έκθεση σε περιστατικά ασφαλείας ή κακοποίηση δεδομένων είναι κατανοητό. Οι πλατφόρμες με αδύναμους φραγμούς ή ασαφείς δεσμεύσεις ιδιωτικότητας, όπως το DeepSeek, αξίζουν περιορισμό και σクラブ. Αλλά η απαγόρευση της πρόσβασης σε εργαλεία GenAI δεν μειώνει σημαντικά τον κίνδυνο· συχνά το μεταφέρει σε περιβάλλοντα όπου η εποπτεία εξαφανίζεται.

Μια ερευνητική μελέτη του College Board βρήκε ότι το 84% των μαθητών του λυκείου ανέφερε ότι χρησιμοποιούν GenAI για σχολική εργασία, ακόμη και όταν το 45% των διευθυντών ανέφερε κάποιους περιορισμούς στην πρόσβαση στο AI στη σχολή. Παρόμοια, μια αναφορά της IBM βρήκε ότι το 80% των εργαζομένων του γραφείου χρησιμοποιούν AI, αλλά μόνο το 22% βασίζονται αποκλειστικά σε εργαλεία που παρέχονται από τον εργοδότη.

Οι πολιτικές πρόσβασης μόνο δεν καθορίζουν τη συμπεριφορά. Οι μαθητές μπορούν να βγάλουν τα κινητά τηλέφωνά τους και να χρησιμοποιήσουν οποιοδήποτε εργαλείο AI μέσω του κινητού δικτύου δεδομένων, ή να το χρησιμοποιήσουν ενώ βρίσκονται στο σπίτι ή σε δημόσιο wifi. Μπορούν επίσης να χρησιμοποιήσουν VPN, απομακρυσμένους επιτραπέζιους και plugins για να παρακάμψουν τους περιορισμούς. Οι εργαζόμενοι μπορούν να κάνουν το ίδιο για να παρακάμψουν τους ελέγχους του χώρου εργασίας.

Οι οργανισμοί πρέπει να υποθέσουν ότι όταν υπάρχει η βούληση να χρησιμοποιηθεί το AI, υπάρχει ένας τρόπος. Όταν η τεχνολογία περιορίζεται με τρόπο που ωθεί τη χρήση πέρα από την ορατότητα του ιδρύματος, ο κίνδυνος του σκιώδους AI αυξάνεται. Δεν υπάρχει εποπτεία για τις πληροφορίες που εισάγονται στις προτροπές ή για τα δεδομένα που διατηρούνται από το μοντέλο. Ο έλεγχος της ασφάλειας εξαφανίζεται αμέσως.

Πέρα από τον κίνδυνο του σκιώδους AI, οι απαγορεύσεις δημιουργούν einen-literacy χάσμα, αφήνοντας τους μαθητές πλήρως απροετοίμαστους να χρησιμοποιήσουν την τεχνολογία που θα είναι μεγάλο μέρος του μέλλοντος τους. Αυτά τα εργαλεία είναι ολοένα και περισσότερο ενσωματωμένα σε μηχανές αναζήτησης, επιχειρηματικά πλάισια, σουίτες παραγωγικότητας και προσωπικές συσκευές. Μια έρευνα της Pew Research βρήκε ότι το 62% των ενηλίκων στις ΗΠΑ λέει ότι αλληλεπιδρά με AI τουλάχιστον μερικές φορές την εβδομάδα. Είναι σχεδόν βέβαιο ότι οι μαθητές και οι εργαζόμενοι θα συναντήσουν συστήματα GenAI ανεξάρτητα από τις πολιτικές του ιδρύματος.

Σε αυτό το περιβάλλον, η εκπαίδευση είναι το πιο αξιόπιστο εχέδρωμα ενάντια στις ανησυχίες σχετικά με την κακοποίηση ή την ασφάλεια και για να διασφαλιστεί ότι οι μαθητές και οι εργαζόμενοι είναι καλά προετοιμασμένοι να χρησιμοποιήσουν ένα εργαλείο που θα είναι ολοένα και περισσότερο ολοκληρωμένο στις καριέρες τους. Η διδασκαλία της υπεύθυνης και ηθικής χρήσης εξοπλίζει τους χρήστες να αναγνωρίσουν τους κινδύνους δεδομένων και να λάβουν ενημερωμένες αποφάσεις όπου και αν συναντήσουν αυτά τα συστήματα.

Τα προγράμματα εκπαίδευσης πρέπει να επικεντρωθούν σε το πώς τα μεγάλα γλωσσικά μοντέλα (LLMs) επεξεργάζονται και διατηρούν δεδομένα, πώς να αναγνωρίσουν ψευδείς εικασίες, πώς να επικυρώσουν τις εξόδους του AI, και πώς να αναγνωρίσουν τις καμπάνιες phishing και τις εικόνες που δημιουργούνται από το AI, για να αναφέρουμε μόνο quelques. Διδάξτε τους χρήστες να είναι σκεπτικιστές. Οι εξόδους του AI παρουσιάζονται συχνά με αυτοπεποίθηση και σε γλωσσικό λόγο, που μπορεί να δημιουργήσει μια ψευδή εντύπωση εξουσίας. Χωρίς εκπαίδευση, οι χρήστες μπορεί να υποθέσουν ότι μια καλά διαμορφωμένη απάντηση είναι αναπόφευκτα ακριβής.

Η ικανότητα να αμφισβητείται ψηφιακό περιεχόμενο είναι μια πρώτη γραμμή άμυνας καθώς οι deepfakes και οι καμπάνιες phishing που ενισχύονται από το AI γίνονται πιο σύνθετες. Μια έρευνα της Gartner βρήκε ότι το 62% των οργανισμών έζησε μια επίθεση deepfake το προηγούμενο έτος, και το 32% αντιμετώπισε μια επίθεση σε εφαρμογές AI. Η συχνότητα και το εύρος αυτών των περιστατικών αναμένεται να συνεχίσει να αυξάνεται.

Οι δημόσιες υπηρεσίες, όπως τα σχολεία και οι τοπικές κυβερνήσεις, είναι ιδιαίτερα εκτεθειμένες σε κοινωνική μηχανική που ενισχύεται από deepfakes, επειδή μεγάλο μέρος της δραστηριότητάς τους είναι ηχογραφημένο και δημόσια διαθέσιμο. Τα ηχητικά αποσπάσματα από δημόσιες συναντήσεις μπορούν να τροποποιηθούν και να χρησιμοποιηθούν για τη δημιουργία πειστικών τηλεφωνικών κλήσεων. Έχουμε δει τους actors να χρησιμοποιούν αυτό για απάτη, όπως η ανακατεύθυνση κεφαλαίων κατά τη διάρκεια ευαίσθητων συναλλαγών. Ενώ αυτό συμβαίνει πιο συχνά σε στοχευμένες περιπτώσεις, οι χρήστες που δεν έχουν εκπαιδευτεί να αναγνωρίσουν αυτές τις τεχνικές, ή ακόμη και να γνωρίζουν ότι είναι δυνατές, είναι σε μειονεκτική θέση από την αρχή.

Μετά την εκπαίδευση, οι οργανισμοί πρέπει να έχουν σαφείς και επικοινωνημένες πολιτικές σχετικά με τη χρήση και τη διακυβέρνηση του AI. Αυτές πρέπει να ορίσουν τα εγκεκριμένα εργαλεία, τις αποδεκτές περιπτώσεις χρήσης και ποια δεδομένα μπορούν και δεν μπορούν να εισαχθούν σε ποιο μοντέλο(α). Οι πολιτικές πρέπει να εφαρμόζονται συνεχώς σε όλα τα τμήματα και όχι να διαφέρουν από το τμήμα στο τμήμα ή από το γραφείο στο γραφείο. Οι σαφείς προσδοκίες μειώνουν την αμφιβολία και ενισχύουν την ευθύνη.

Αντί για γενικές απαγορεύσεις, οι οργανισμοί πρέπει να επιδιώξουν να διαμορφώσουν τον τρόπο με τον οποίο η τεχνολογία χρησιμοποιείται στην πράξη. Όταν ένας οργανισμός ενδυναμώνει ένα εργαλείο που είναι προσιτό, ασφαλές και λειτουργεί καλά, γίνεται το προεπιλεγμένο για τους περισσότερους χρήστες. Η καθημερινή χρήση του σκιώδους AI μειώνεται επειδή υπάρχει một απλή εναλλακτική που δεν περιλαμβάνει την κατέβασμα eines VPN για να το χρησιμοποιήσει.

Οι οργανισμοί και τα ιδρύματα προσπαθούν να παρέχουν ασφαλή πρόσβαση στα LLMs με τρόπο που να διασφαλίζεται ότι τα δεδομένα τους είναι ασφαλισμένα και δεν μοιράζονται ή χρησιμοποιούνται για εκπαίδευση. Μια αυξανόμενη κατηγορία εργαλείων AI και ασφάλειας εμφανίζεται για να το κάνει ακριβώς αυτό. Μπορούν να παρέχουν πρόσβαση σε πολλαπλά LLMs ενώ διατηρούν τα δεδομένα του ιδρύματος ασφαλώς σε container. Οι συμφωνίες μη διατήρησης δεδομένων παρέχουν το νομικό πλαίσιο για να διασφαλιστεί ότι τα δεδομένα του οργανισμού παραμένουν ιδιοκτησία της εταιρείας ή του ιδρύματος, και το LLM δεν μπορεί να εκπαιδευτεί σε αυτά. Επιπλέον, αν ένας εργαζόμενος εγκαταλείψει το ίδρυμα, οποιαδήποτε χρήση AI, ροές εργασίας ή δεδομένα παραμένουν ιδιοκτησία του οργανισμού.

Τεχνικοί φραγμοί μπορούν επίσης να εφαρμοστούν στο επίπεδο της λειτουργίας. Ένα ίδρυμα μπορεί να επιτρέψει στους μαθητές ή τους εργαζομένους να κάνουν γενικές ερωτήσεις μέσα σε ένα εγκεκριμένο LLM ενώ απενεργοποιούν την ανταλλαγή αρχείων, την κοινή χρήση εγγράφων ή άλλες υψηλού κινδύνου ικανότητες. Αυτές οι ρυθμίσεις διατηρούν τα οφέλη της παραγωγικότητας χωρίς να ανοίγουν την πόρτα σε ανεξέλεγκτη έκθεση δεδομένων.

Περισσότερα προηγμένα εργαλεία μπορούν να ανωνυμοποιήσουν αυτόματα ευαίσθητες πληροφορίες πριν φτάσουν ποτέ στο μοντέλο. Για παράδειγμα, αντικαθιστώντας τα ονόματα ασθενών ή τα αναγνωριστικά με ουδέτερες जगह-κρατήσεις, ώστε οι γιατροί και οι νοσοκόμες να μπορούν ακόμη να χρησιμοποιήσουν το GenAI χωρίς να εκθέσουν προστατευμένα δεδομένα. Άλλα ολοκληρώνουν τον έλεγχο της απώλειας δεδομένων που ανιχνεύει και блокάρει τους αριθμούς κοινωνικής ασφάλισης, τα οικονομικά λογαριασμούς ή άλλες ρυθμιζόμενες πληροφορίες από το να υποβληθούν σε προτροπές.

Οι σαφείς πολιτικές με τεχνικούς φραγμούς, χτισμένες σε μια βάση εκπαίδευσης, δημιουργούν την καλύτερη άμυνα, ιδιαίτερα καθώς η τεχνολογία αλλάζει τόσο γρήγορα. Το GenAI εξελίσσεται γρηγορότερα από τους περισσότερους δημόσιους οργανισμούς – και τους προϋπολογισμούς τους – να προσαρμοστούν. Η προσπάθεια να αποκλείσει κάθε νέο μοντέλο καθώς εμφανίζεται είναι μη βιώσιμη επειδή μέχρι να περιοριστεί μια πλατφόρμα, μια άλλη έχει κερδίσει έλξη. Οι χρήστες που εκπαιδεύονται να κατανοήσουν τους υποκείμενους κινδύνους μπορούν να προσαρμοστούν σε εργαλεία και εκδόσεις.

Η ασφάλεια σε ένα περιβάλλον που ενεργοποιείται από το AI εξαρτάται από την αναγνώριση της πραγματικότητας ότι το GenAI είναι τώρα ενσωματωμένο στην καθημερινή ζωή. Δεν υπάρχει τρόπος να ξαναβάλουμε το γένος στη φιάλη. Οι γενικές απαγορεύσεις μπορεί να δείχνουν προσοχή, αλλά συχνά ανταλλάσσουν ορατό, διαχειρίσιμο κίνδυνο με αόρατο, μη διαχειρίσιμο έκθεση. Διδάξτε ένα άτομο να χρησιμοποιήσει το AI υπεύθυνα, και θα είναι έτοιμο για ό,τι έρχεται μετά.

Ο Christopher Morton υπηρετεί ως Logically’s Chief Information Officer, ηγείται των ομάδων IT Ops, Τεχνικής Ανάπτυξης Προϊόντων, Κέντρου Επιχειρήσεων Δικτύου και Υπηρεσιών Cloud. Εντάχθηκε στην ομάδα του Logically μέσω της απόκτησης της The Network Support Company το 2021, όπου είχε υπηρετήσει ως CTO. Ο Morton ξεκίνησε την καριέρα του με την The Network Support Company το 2005 και ήταν καθοριστικός στη βοήθεια για την εκκίνηση, τη διαχείριση και την ανάπτυξη των υπηρεσιών διαχείρισης.