Connect with us

Όταν η Κακοχρήστευση του AI Προκαλεί Μια Εταιρική Κρίση

Ηγέτες σκέψης

Όταν η Κακοχρήστευση του AI Προκαλεί Μια Εταιρική Κρίση

mm

Οι περισσότερες εταιρείες δεν έχουν πολιτικές για την πρόληψη καταστροφών της φήμης από εργαλεία τεχνητής νοημοσύνης

Πρόσφατες ερευνες αποκαλυπτουν ότι μόνο περίπου το 30% των εταιρειών έχουν καθορίσει πολιτικές για το AI. Εν τω μεταξύ, το 77% των εργαζομένων μοιράζονται εταιρικά μυστικά στο ChatGPT, σύμφωνα με την Ετήσια Έκθεση για την Ασφάλεια Δεδομένων του Enterprise AI και SaaS της LayerX. Αυτό το συνδυασμό δημιουργεί ιδανικές συνθήκες για κρίσεις φήμης.

Οι περισσότερες πολιτικές AI που υπάρχουν σήμερα εστιάζουν στις τεχνικές και νομικές απειλές. Καταδεικνύουν πρωτόκολλα ασφάλειας δεδομένων, αξιολογήσεις προμηθευτών και νομικές απαιτήσεις. Αυτές οι πολιτικές συχνά παραλείπουν μια δημόσια κρίση που μπορεί να εκτυλιχθεί μέσα σε quelques ώρες λόγω κακοχρήστευσης του AI. Στο Red Banyan, συμβουλεύουμε έναν αυξανόμενο αριθμό οργανισμών μέσω κρίσεων που σχετίζονται με το AI, και αρχίζουμε να βλέπουμε ένα κοινό μοτίβο. Η τεχνική παραβίαση συνήθως περιορίζεται γρήγορα, αλλά η ζημιά στην φήμη, τις σχέσεις με τους πελάτες και την εμπιστοσύνη των μετόχων μπορεί να διαρκέσει για μήνες ή ακόμη και χρόνια.

Το Πρόβλημα του Σκιάς AI

Η μεγαλύτερη απειλή προέρχεται από αυτό που οι επαγγελματίες ασφαλείας ονομάζουν “Σκιά AI.” Αυτό είναι όπου οι εργαζόμενοι χρησιμοποιούν μη εγκεκριμένα, προσωπικά λογαριασμούς AI για εργασίες, παρακάμπτοντας εταιρικούς ελέγχους ασφαλείας. Οι περισσότερες φορές, το κάνουν χωρίς να συνειδητοποιήσουν πλήρως τους κινδύνους.

Σύμφωνα με την έρευνα της Cyberhaven έρευνα, το 11% των δεδομένων που οι εργαζόμενοι εισάγουν στο ChatGPT είναι εμπιστευτικά. Αυτό το ποσοστό πρέπει να προκαλεί ανησυχία σε κάθε CIO και ηγέτη επικοινωνιών. Μιλάμε για κώδικα πηγής, συμβάσεις πελατών, μη δημοσιευμένα χρονοδιαγράμματα προϊόντων, προβλέψεις финансών και αρχεία εργαζομένων που ρέουν σε συστήματα που οι οργανισμοί δεν ελέγχουν.

Πώς Συμβαίνει Η Έκθεση Δεδομένων

Οι μηχανικοί λογισμικού μπορούν να στραφούν σε εργαλεία AI όπως το Claude ή το ChatGPT για να διορθώσουν ή να βελτιώσουν τμήματα κώδικα. Το 2023, μηχανικοί λογισμικού της Samsung έκαναν ακριβώς αυτό – ανέβασαν εσωτερικό κώδικα πηγής στο ChatGPT ενώ προσπαθούσαν να διορθώσουν προβλήματα. Η διαρροή του εμπιστευτικού κώδικα ανάγκασε τη Samsung να εφαρμόσει綜合적인 περιορισμούς στη χρήση του AI σε όλα τα τμήματα μηχανικής.

Οι επαγγελματίες μάρκετινγκ και οι εργαζόμενοι του τμήματος ανθρώπινου δυναμικού συχνά χρησιμοποιούν το AI για να βελτιώσουν το γραπτό τους. Ανεβάζουν προσχέδια προτάσεων, εσωτερικά έγγραφα πολιτικής και иногда ακόμη και συμβάσεις πελατών, ζητώντας από το AI να βελτιώσει τη σαφήνεια ή να διορθώσει γραμματικές λάθη. Αυτά τα έγγραφα περιέχουν συχνά προβλέψεις финансών, νομικούς όρους ή στρατηγικά σχέδια που οι ανταγωνιστές θα βρουν πολύτιμα.

Οι ομάδες εξυπηρέτησης πελατών που πειραματίζονται με εργαλεία αποδοτικότητας AI μπορεί να εισάγουν πραγματικές συνομιλίες πελατών και εισιτήρια υποστήριξης. Θέλουν το AI να συνοψίσει τις αλληλεπιδράσεις ή να προτείνει καλύτερες απαντήσεις. Όταν αυτές οι εισαγωγές περιλαμβάνουν ονόματα πελατών, στοιχεία επικοινωνίας, λεπτομέρειες λογαριασμού ή ιστορικό αγορών, η εταιρεία έχει πιθανώς παραβεί κανονισμούς προστασίας δεδομένων όπως το GDPR ή το CCPA.

Οι ομάδες ανάπτυξης προϊόντων που επινοούν νέες λειτουργίες μπορεί να περιγράψουν μη ανακοινωμένες ικανότητες στο ChatGPT, ελπίζοντας ότι το AI θα βοηθήσει να ανακαλύψουν προβλήματα ή να ανακαλύψουν потенτικά προβλήματα. Αυτές οι περιγραφές μπορούν να αποκαλύψουν ανταγωνιστικά πλεονεκτήματα, τεχνολογικές καινοτομίες ή στρατηγικές αγοράς που η εταιρεία είχε την πρόθεση να κρατήσει εμπιστευτικές μέχρι την κυκλοφορία.

Όλη αυτή η πληροφορία θα μπορούσε να διατηρηθεί από μεγάλες γλώσσες μοντέλα και να ενημερώσει απαντήσεις AI σε άλλους χρήστες στο μέλλον.

Για παράδειγμα, μετά την ομάδα ανάπτυξης προϊόντων έχει περιγράψει το επερχόμενο προϊόν της στο ChatGPT, ένας ανταγωνιστής ή δημοσιογράφος θα μπορούσε να ζητήσει από το εργαλείο AI πληροφορίες για τις επερχόμενες κυκλοφορίες της εταιρείας. Το ChatGPT μπορεί να αναφερθεί στις εμπιστευτικές πληροφορίες που μοιράστηκαν και να αποκαλύψει πληροφορίες για ένα νέο προϊόν ή τεχνολογία που η εταιρεία ξόδεψε σημαντικά για την ανάπτυξή της.

Πώς Αυτό Γίνεται Μια Κρίση Επικοινωνιών

Όταν αυτά τα περιστατικά εμφανίζονται, σπάνια παραμένουν περιορισμένα ως προβλήματα IT. Αυτό που συνήθως συμβαίνει:

Η παραβίαση ανακαλύπτεται, συχνά τυχαία ή μέσω μιας τρίτης ειδοποίησης. Το τμήμα IT αρχίζει να ερευνά ενώ προσπαθεί να αξιολογήσει το εύρος. Εν τω μεταξύ, αν το περιστατικό αφορά δεδομένα πελατών ή ρυθμιζόμενη πληροφορία, οι νομικές υποχρεώσεις απαιτούν αποκάλυψη. Μόλις αποκαλυφθεί, η κάλυψη των μέσων μαζικής ενημέρωσης αρχίζει. Τα κοινωνικά μέσα ενημέρωσης ενισχύουν την ιστορία. Οι πελάτες αρχίζουν να καλούν με ανησυχίες. Οι εργαζόμενοι ανησυχούν για την ασφάλεια της δουλειάς τους και την ευθύνη τους.

Μέσα σε 24 έως 48 ώρες, αυτό που ξεκίνησε ως τεχνικό περιστατικό έχει γίνει μια πλήρη κρίση φήμης. Η εταιρεία πρέπει να εξηγήσει σε πολλαπλά κοινά πώς συνέβη αυτό, γιατί οι έλεγχοι απέτυχαν και τι γίνεται για να αποτραπεί η επανάληψη. Αν η εταιρεία δεν έχει προετοιμαστεί για αυτό το σενάριο, η απάντηση είναι συχνά αργή, ασυνεπής ή αμυντική. Κάθε λάθος επεκτείνει την κρίση και βαθύνει τη ζημιά.

Δημιουργία Πλαισίου Απάντησης σε Κρίσεις για Περιστατικά AI

Οι CIO πρέπει να συνεργαστούν με τις ομάδες επικοινωνιών και νομικών για να δημιουργήσουν πρωτόκολλα απάντησης σε κρίσεις ειδικά για περιστατικά AI. Οι τεχνικοί έλεγχοι και οι πολιτικές έχουν σημασία, αλλά είναι ανεπαρκείς χωρίς einen σχέδιο για τη διαχείριση της πτώσης των μέσων μαζικής ενημέρωσης όταν κάτι πάει λάθος.

Αυτά είναι τα έξι βήματα για να αρχίσετε αυτή τη διαδικασία:

  1. Καθορίστε σαφείς διαδρομές ανόδου. Όταν ανακαλυφθεί μια έκθεση δεδομένων που σχετίζεται με το AI, ποιος ειδοποιείται αμέσως; Το τμήμα IT, το τμήμα Νομικών, το τμήμα Επικοινωνιών και η διοίκηση πρέπει όλα να ειδοποιηθούν γρήγορα. Δημιουργήστε ένα δέντρο αποφάσεων που καθορίζει πότε να ενεργοποιήσετε πρωτόκολλα κρίσεων με βάση τον τύπο και την ευαισθησία των εκτεθειμένων δεδομένων.
  2. Αναπτύξτε προτυπωμένα απαντητικά. Προ-δημιουργήστε δηλώσεις και έγγραφα ερωτήσεων και απαντήσεων για συνηθισμένα σενάρια κακοχρήστευσης του AI. Αυτά πρέπει να αντιμετωπίσουν την κακοχρήστευση από τους εργαζομένους, ζητήματα ασφαλείας προμηθευτών και τυχαία έκθεση δεδομένων. Έχοντας προ-δημιουργημένα προτύπα σας επιτρέπει να απαντάτε γρηγορότερα και πιο συνεπώς όταν ο χρόνος είναι κρίσιμος.
  3. Εκπαιδεύστε τους ομιλητές. Οι εκτελεστές και το προσωπικό επικοινωνιών χρειάζονται εκπαίδευση στα μέσα ενημέρωσης που επικεντρώνονται ειδικά στη συζήτηση περιστατικών AI. Η τεχνολογία είναι σύνθετη και γεμάτη με ιδιωματισμούς, που μπορεί να είναι δύσκολο να διαπλεύσει όταν απαντάτε σε ερωτήσεις από μετόχους.
  4. Παρακολουθήστε για πρώιμα σημάδια προειδοποίησης. Η παρακολούθηση των κοινωνικών μέσων πρέπει να περιλαμβάνει λέξεις-κλειδιά που σχετίζονται με την οργάνωση σας και τα εργαλεία AI. Μερικές φορές η πρώτη ένδειξη ενός προβλήματος έρχεται από έναν εργαζόμενο που δημοσιεύει στο LinkedIn ή έναν πελάτη που καταθέτει μια καταγγελία στο Twitter για μια απάντηση που δημιουργήθηκε από το AI.
  5. Διεξαγάγετε προσομοιώσεις κρίσεων. Ασκήσεις που περνούν από ένα σενάριο έκθεσης δεδομένων AI βοηθούν τις ομάδες να κατανοήσουν τους ρόλους τους και να ανακαλύψουν κενά στο σχέδιο απάντησης. Αυτές οι ασκήσεις πρέπει να περιλαμβάνουν το τμήμα IT, το τμήμα Νομικών, το τμήμα Επικοινωνιών, το τμήμα Ανθρώπινου Δυναμικού και την ηγετική διοίκηση.
  6. Δημιουργήστε σχέσεις πριν τις χρειαστείτε. Καθορίστε συνδέσεις με εταιρείες επικοινωνιών κρίσεων, εμπειρογνώμονες κυβερνοασφάλειας που μπορούν να παρέχουν τρίτη επαλήθευση και νομική υποστήριξη που έχει εμπειρία σε ζητήματα AI. Όταν μια κρίση χτυπήσει, θέλετε να έχετε εμπιστευμένους συμβούλους που μπορούν να κινητοποιηθούν αμέσως.

Ο Δρόμος Εμπρός

Το χάσμα μεταξύ υιοθέτησης AI και διακυβέρνησης AI συνεχίζει να αυξάνεται. Οι εργαζόμενοι έχουν εύκολη πρόσβαση σε शकτικά εργαλεία που μπορούν να δημιουργήσουν σημαντικούς κινδύνους φήμης. Οι CIO έχουν παραδοσιακά επικεντρωθεί στην τεχνική πλευρά της διαχείρισης κινδύνων AI. Ωστόσο, η πλευρά φήμης των περιστατικών AI απαιτεί ισότιμη προσοχή και προετοιμασία.

Το ερώτημα δεν είναι αν η οργάνωση σας θα αντιμετωπίσει μια κρίση που σχετίζεται με το AI. Δεδομένων των τρεχόντων ρυθμών υιοθέτησης και της διαθεσιμότητας του Shadow AI, το ερώτημα είναι πότε. Οι εταιρείες που προετοιμάζονται τώρα, με πολιτικές που αντιμετωπίζουν τόσο τεχνικούς όσο και κινδύνους φήμης, θα αντιμετωπίσουν αυτά τα περιστατικά πολύ καλύτερα από εκείνες που πιάνονται ακαταπληκτισμένες.

Ο Vlad Drazdovich είναι Αντιπρόεδρος Βελτίωσης Απόδοσης και Αναλυτικών στο Red Banyan, μια εταιρεία στρατηγικής επικοινωνίας και διαχείρισης κρίσεων. Ως μέρος του ρόλου του, ο Vlad συμβουλεύει για εταιρική στρατηγική AI και εποπτεύει τις εφαρμογές τεχνολογίας με βάση την τεχνητή νοημοσύνη στην εταιρεία.

Γνωστοποίηση διαφημιζόμενων: Το Unite.AI δεσμεύεται σε αυστηρά συντακτικά πρότυπα για την παροχή ακριβών πληροφοριών και ειδήσεων στους αναγνώστες μας. Ενδέχεται να λάβουμε αποζημίωση όταν κάνετε κλικ σε συνδέσμους προς προϊόντα που έχουμε αξιολογήσει.