στέλεχος Employing Generative AI: Unpacking the Cybersecurity Implications of Generative AI Tools - Unite.AI
Συνδεθείτε μαζί μας

Ηγέτες της σκέψης

Χρησιμοποιώντας Generative AI: Αποσυσκευασία των επιπτώσεων στην κυβερνοασφάλεια των Generative AI Tools

mm

Δημοσιευμένα

 on

Είναι δίκαιο να πούμε ότι η γενετική τεχνητή νοημοσύνη έχει πλέον τραβήξει την προσοχή κάθε αίθουσας συνεδριάσεων και ηγετών επιχειρήσεων στη χώρα. Κάποτε μια τεχνολογία περιθωρίου που ήταν δύσκολο να χειριστεί κανείς, πολύ λιγότερο να κυριαρχήσει, οι πόρτες για την παραγωγική τεχνητή νοημοσύνη έχουν πλέον ανοίξει διάπλατα χάρη σε εφαρμογές όπως το ChatGPT ή το DALL-E. Γινόμαστε τώρα μάρτυρες μιας χονδρικής αγκαλιάς της παραγωγικής τεχνητής νοημοσύνης σε όλους τους κλάδους και τις ηλικιακές ομάδες, καθώς οι εργαζόμενοι βρίσκουν τρόπους να αξιοποιήσουν την τεχνολογία προς όφελός τους.

Μια πρόσφατη επισκόπηση ανέφερε ότι το 29% του Gen Z, το 28% του Gen X και το 27% των Millennial ερωτηθέντων χρησιμοποιούν πλέον εργαλεία παραγωγής τεχνητής νοημοσύνης ως μέρος της καθημερινής τους δουλειάς. Το 2022, η υιοθέτηση τεχνητής νοημοσύνης σε μεγάλη κλίμακα ήταν 23% και το ποσοστό αυτό αναμένεται να διπλασιαστεί σε 46% έως το 2025.

Το Generative AI είναι εκκολαπτόμενη αλλά ταχέως εξελισσόμενη τεχνολογία που αξιοποιεί εκπαιδευμένα μοντέλα για τη δημιουργία πρωτότυπου περιεχομένου σε διάφορες μορφές, από γραπτό κείμενο και εικόνες, μέχρι βίντεο, μουσική, ακόμη και κώδικα λογισμικού. Χρησιμοποιώντας μεγάλα γλωσσικά μοντέλα (LLM) και τεράστια σύνολα δεδομένων, η τεχνολογία μπορεί να δημιουργήσει άμεσα μοναδικό περιεχόμενο που δεν διακρίνεται σχεδόν από το ανθρώπινο έργο και σε πολλές περιπτώσεις πιο ακριβές και συναρπαστικό.

Ωστόσο, ενώ οι επιχειρήσεις χρησιμοποιούν ολοένα και περισσότερο γενετική τεχνητή νοημοσύνη για να υποστηρίξουν τις καθημερινές τους λειτουργίες και οι εργαζόμενοι είναι γρήγοροι στην υιοθέτηση, ο ρυθμός υιοθέτησης και η έλλειψη ρυθμίσεων έχουν εγείρει σημαντικές ανησυχίες για την ασφάλεια στον κυβερνοχώρο και τη συμμόρφωση με τους κανονισμούς.

Σύμφωνα με ένα επισκόπηση του γενικού πληθυσμού, περισσότερο από το 80% των ανθρώπων ανησυχούν για τους κινδύνους ασφαλείας που ενέχουν το ChatGPT και η γενετική τεχνητή νοημοσύνη, και το 52% των ερωτηθέντων θέλει να σταματήσει η ανάπτυξη της γενετικής τεχνητής νοημοσύνης, ώστε οι κανονισμοί να καλύψουν τη διαφορά. Αυτό το ευρύτερο συναίσθημα έχει επίσης απηχηθεί από τις ίδιες τις επιχειρήσεις, με Το 65% των ανώτερων ηγετών πληροφορικής απρόθυμοι να εγκρίνουν την πρόσβαση χωρίς τριβές σε εργαλεία παραγωγής τεχνητής νοημοσύνης λόγω ανησυχιών για την ασφάλεια.

Το Generative AI είναι ακόμα άγνωστο

Τα εργαλεία παραγωγής τεχνητής νοημοσύνης τροφοδοτούνται από δεδομένα. Μοντέλα, όπως αυτά που χρησιμοποιούνται από το ChatGPT και το DALL-E, εκπαιδεύονται σε εξωτερικά ή ελεύθερα διαθέσιμα δεδομένα στο διαδίκτυο, αλλά για να αξιοποιήσουν στο έπακρο αυτά τα εργαλεία, οι χρήστες πρέπει να μοιράζονται πολύ συγκεκριμένα δεδομένα. Συχνά, όταν ζητούν εργαλεία όπως το ChatGPT, οι χρήστες μοιράζονται ευαίσθητες επιχειρηματικές πληροφορίες προκειμένου να λάβουν ακριβή, ολοκληρωμένα αποτελέσματα. Αυτό δημιουργεί πολλά άγνωστα για τις επιχειρήσεις. Ο κίνδυνος μη εξουσιοδοτημένης πρόσβασης ή ακούσιας αποκάλυψης ευαίσθητων πληροφοριών είναι «ψημένος» όταν πρόκειται για τη χρήση ελεύθερα διαθέσιμων εργαλείων παραγωγής τεχνητής νοημοσύνης.

Αυτός ο κίνδυνος από μόνος του δεν είναι απαραιτήτως κακός. Το θέμα είναι ότι αυτοί οι κίνδυνοι δεν έχουν ακόμη διερευνηθεί σωστά. Μέχρι σήμερα, δεν έχει γίνει καμία ανάλυση πραγματικού επιχειρηματικού αντίκτυπου από τη χρήση ευρέως διαθέσιμων εργαλείων παραγωγής τεχνητής νοημοσύνης και τα παγκόσμια νομικά και ρυθμιστικά πλαίσια γύρω από τη χρήση της γενετικής τεχνητής νοημοσύνης δεν έχουν ακόμη φτάσει σε οποιαδήποτε μορφή ωριμότητας.

Η ρύθμιση είναι ακόμη ένα έργο σε εξέλιξη

Οι ρυθμιστικές αρχές αξιολογούν ήδη τα εργαλεία παραγωγής τεχνητής νοημοσύνης όσον αφορά το απόρρητο, την ασφάλεια των δεδομένων και την ακεραιότητα των δεδομένων που παράγουν. Ωστόσο, όπως συμβαίνει συχνά με την αναδυόμενη τεχνολογία, ο ρυθμιστικός μηχανισμός που υποστηρίζει και διέπει τη χρήση της υστερεί αρκετά βήματα. Ενώ η τεχνολογία χρησιμοποιείται από εταιρείες και υπαλλήλους σε μεγάλο βαθμό, τα ρυθμιστικά πλαίσια βρίσκονται ακόμη σε μεγάλο βαθμό στο σχέδιο.

Αυτό δημιουργεί έναν σαφή και παρόντα κίνδυνο για τις επιχειρήσεις, ο οποίος, προς το παρόν, δεν λαμβάνεται τόσο σοβαρά όσο θα έπρεπε. Τα στελέχη ενδιαφέρονται φυσικά για το πώς αυτές οι πλατφόρμες θα εισαγάγουν σημαντικά επιχειρηματικά κέρδη, όπως ευκαιρίες για αυτοματοποίηση και ανάπτυξη, αλλά οι διαχειριστές κινδύνου ρωτούν πώς θα ρυθμιστεί αυτή η τεχνολογία, ποιες μπορεί να είναι τελικά οι νομικές επιπτώσεις και πώς τα εταιρικά δεδομένα ενδέχεται να διακυβευτούν ή να εκτεθούν . Πολλά από αυτά τα εργαλεία είναι ελεύθερα διαθέσιμα σε οποιονδήποτε χρήστη με πρόγραμμα περιήγησης και σύνδεση στο Διαδίκτυο, επομένως, ενώ περιμένουν να καλυφθούν οι κανονισμοί, οι επιχειρήσεις πρέπει να αρχίσουν να σκέφτονται πολύ προσεκτικά τους «οικιακούς κανόνες» τους σχετικά με τη χρήση τεχνητής νοημοσύνης.

Ο ρόλος των CISO στη διακυβέρνηση της γενετικής τεχνητής νοημοσύνης

Καθώς τα ρυθμιστικά πλαίσια εξακολουθούν να λείπουν, οι Chief Information Security Officers (CISOs) πρέπει να ενταθούν και να διαδραματίσουν κρίσιμο ρόλο στη διαχείριση της χρήσης της γενετικής τεχνητής νοημοσύνης στους οργανισμούς τους. Πρέπει να καταλάβουν ποιος χρησιμοποιεί την τεχνολογία και για ποιο σκοπό, πώς να προστατεύσει τις πληροφορίες της επιχείρησης όταν οι εργαζόμενοι αλληλεπιδρούν με εργαλεία παραγωγής τεχνητής νοημοσύνης, πώς να διαχειριστούν τους κινδύνους ασφαλείας της υποκείμενης τεχνολογίας και πώς να εξισορροπήσουν τις αντισταθμίσεις ασφαλείας με την αξία προσφέρει τεχνολογία.

Αυτό δεν είναι εύκολο έργο. Θα πρέπει να διενεργούνται λεπτομερείς εκτιμήσεις κινδύνου για τον προσδιορισμό τόσο των αρνητικών όσο και των θετικών αποτελεσμάτων ως αποτέλεσμα αφενός, της ανάπτυξης της τεχνολογίας σε επίσημη ιδιότητα και, αφετέρου, της δυνατότητας στους εργαζόμενους να χρησιμοποιούν ελεύθερα διαθέσιμα εργαλεία χωρίς επίβλεψη. Δεδομένης της εύκολης πρόσβασης φύσης των γενετικών εφαρμογών τεχνητής νοημοσύνης, οι CISO θα πρέπει να σκεφτούν προσεκτικά την πολιτική της εταιρείας σχετικά με τη χρήση τους. Πρέπει οι εργαζόμενοι να είναι ελεύθεροι να αξιοποιούν εργαλεία όπως το ChatGPT ή το DALL-E για να κάνουν τη δουλειά τους πιο εύκολη; Ή θα πρέπει η πρόσβαση σε αυτά τα εργαλεία να περιοριστεί ή να μετριαστεί με κάποιο τρόπο, με εσωτερικές κατευθυντήριες γραμμές και πλαίσια σχετικά με τον τρόπο χρήσης τους; Ένα προφανές πρόβλημα είναι ότι ακόμη και αν δημιουργηθούν οδηγίες εσωτερικής χρήσης, δεδομένου του ρυθμού με τον οποίο εξελίσσεται η τεχνολογία, ενδέχεται να είναι παρωχημένες μέχρι την οριστικοποίησή τους.

Ένας τρόπος αντιμετώπισης αυτού του προβλήματος θα μπορούσε στην πραγματικότητα να είναι η απομάκρυνση της εστίασης από τα ίδια τα εργαλεία δημιουργίας τεχνητής νοημοσύνης και, αντί αυτού, η εστίαση στην ταξινόμηση και προστασία δεδομένων. Η ταξινόμηση δεδομένων ήταν πάντα μια βασική πτυχή της προστασίας των δεδομένων από παραβίαση ή διαρροή, και αυτό ισχύει και σε αυτή τη συγκεκριμένη περίπτωση χρήσης. Περιλαμβάνει την εκχώρηση ενός επιπέδου ευαισθησίας στα δεδομένα, το οποίο καθορίζει τον τρόπο με τον οποίο πρέπει να αντιμετωπίζονται. Πρέπει να είναι κρυπτογραφημένο; Πρέπει να αποκλειστεί για να περιοριστεί; Πρέπει να ειδοποιηθεί; Ποιος πρέπει να έχει πρόσβαση σε αυτό και πού επιτρέπεται η κοινή χρήση; Εστιάζοντας στη ροή των δεδομένων και όχι στο ίδιο το εργαλείο, οι CISO και οι αξιωματικοί ασφαλείας θα έχουν πολύ μεγαλύτερες πιθανότητες να μετριάσουν ορισμένους από τους κινδύνους που αναφέρθηκαν.

Όπως όλες οι αναδυόμενες τεχνολογίες, η γενετική τεχνητή νοημοσύνη είναι ταυτόχρονα όφελος και κίνδυνος για τις επιχειρήσεις. Ενώ προσφέρει συναρπαστικές νέες δυνατότητες, όπως η αυτοματοποίηση και η δημιουργική σύλληψη, εισάγει επίσης ορισμένες σύνθετες προκλήσεις σχετικά με την ασφάλεια των δεδομένων και τη διαφύλαξη της πνευματικής ιδιοκτησίας. Ενώ τα ρυθμιστικά και νομικά πλαίσια εξακολουθούν να κατακερματίζονται, οι επιχειρήσεις πρέπει να αναλάβουν να περπατήσουν τη γραμμή μεταξύ ευκαιρίας και κινδύνου, εφαρμόζοντας τους δικούς τους ελέγχους πολιτικής που αντικατοπτρίζουν τη συνολική στάση ασφαλείας τους. Η γενετική τεχνητή νοημοσύνη θα οδηγήσει τις επιχειρήσεις μπροστά, αλλά θα πρέπει να είμαστε προσεκτικοί να κρατάμε το ένα χέρι στο τιμόνι.

Με περισσότερα από 25 χρόνια εμπειρίας ως εμπειρογνώμονας στον κυβερνοχώρο, ο Chris Hetner αναγνωρίζεται για την αύξηση του κινδύνου στον κυβερνοχώρο σε επίπεδο C-Suite και Board για την προστασία βιομηχανιών, υποδομών και οικονομιών παγκοσμίως.

Υπηρέτησε ως Ανώτερος Σύμβουλος Κυβερνοασφάλειας στον Πρόεδρο της Επιτροπής Κεφαλαιαγοράς των Ηνωμένων Πολιτειών και ως Επικεφαλής Κυβερνοασφάλειας για το Γραφείο Επιθεωρήσεων και Εξετάσεων Συμμόρφωσης στο SEC.

Επί του παρόντος, ο Chris είναι Πρόεδρος του Συμβουλευτικού Συμβουλίου Ασφάλειας Πελατών της Panzura, το οποίο παρέχει εκπαίδευση και ευαισθητοποίηση σχετικά με την ανθεκτικότητα των δεδομένων με αποστολή την προώθηση της επιχειρηματικής, επιχειρησιακής και οικονομικής ευθυγράμμισης με τη διακυβέρνηση κινδύνων στον κυβερνοχώρο. Η Panzura είναι μια κορυφαία υβριδική εταιρεία διαχείρισης δεδομένων πολλαπλών νέφους.

Επιπλέον, είναι Ειδικός Σύμβουλος για τον Κυβερνοκίνδυνο στην Εθνική Ένωση Εταιρικών Διευθυντών, Πρόεδρος Cybersecurity and Privacy του Nasdaq Insight Council και μέλος του Διοικητικού Συμβουλίου της TCIG.