Connect with us

Εμπιστευόμενοι τους Πράκτορες AI SOC με Κρίσιμες Δραστηριότητες SOC

Ηγέτες σκέψης

Εμπιστευόμενοι τους Πράκτορες AI SOC με Κρίσιμες Δραστηριότητες SOC

mm

Τα μεγάλα μοντέλα γλώσσας (LLMs) και οι πράκτορες AI έχουν σημαντική επίδραση σε πολλά πεδία, συμπεριλαμβανομένου του κύβερνο ασφάλειας. Ο ουρανός είναι ο ορίζοντας όταν πρόκειται για το δυναμικό τους. Ωστόσο, στη Γη, όπου τα LLMs ενσωματώνονται σε πυρήνες ροών εργασίας όπου λαμβάνονται επιχειρηματικές αποφάσεις, έχουν εμφανιστεί πολλά ζητήματα, ιδιαίτερα γύρω από την ιδιωτικότητα και την ακρίβεια των δεδομένων. Μας έχει μείνει να αναρωτηθούμε: Είναι οι πράκτορες AI αρκετά αξιόπιστοι για την επιχείρησή μου;

Όταν πρόκειται για την ασφάλεια και τα Κέντρα Επιχειρήσεων Ασφάλειας (SOCs), η γρήγορη απάντηση, όπως ακούσαμε σε όλη τη διάρκεια της καριέρας μας, είναι: Ναι, με τις κατάλληλες ελέγχους και μετριασμούς στα SOCs, οι πράκτορες AI μπορούν να αναπτυχθούν με επιτυχία και ασφάλεια σε περιβάλλοντα παραγωγής όπου προσφέρουν σημαντική αξία δουλεύοντας μαζί με ανθρώπινους αναλυτές SOC.

Προκλήσεις Ασφάλειας AI

Τα off-the-shelf LLMs που χρησιμοποιούνται ως αυτόνομη λύση έχουν πολλά βασικά προβλήματα, όπως οπτασία, δηλητηρίαση δεδομένων και έγχυση προώθησης. Αυτά τα ζητήματα μπορούν να προκαλέσουν σοβαρά προβλήματα σε ένα αυτόνομο SOC, συμπεριλαμβανομένων:

Περιορισμένα Δεδομένα που Προκαλούν Λανθασμένες Απόψεις – Οι πράκτορες AI χρειάζονται όλες τις σχετικές πληροφορίες από το περιβάλλον για να κάνουν τη δουλειά τους καλά – τουλάχιστον όσο δεδομένα έχουν οι ανθρώπινοι αναλυτές ασφάλειας, και ιδανικά περισσότερα. Η ανεπαρκής πρόσβαση σε δεδομένα οδηγεί τους πράκτορες AI να κάνουν λανθασμένες υποθέσεις που μπορούν να διαφέρουν σε διαφορετικές έρευνες. Αν περιορίσετε την πρόσβαση σε δεδομένα λόγω προβλημάτων ασφάλειας ή να περιορίσετε το πόσο μπορεί να κάνει ο AI για λόγους προϋπολογισμού, περιμένετε να χτυπηθεί η ακρίβεια.

Ασυνεπείς Απόψεις – Οι πράκτορες AI πρέπει να λαμβάνουν αποφάσεις και να εκτελούν εργασίες με βάση τα δεδομένα που έχουν συλλέξει. Λόγω του μεγάλου όγκου δεδομένων ασφάλειας σε τυπικά περιβάλλοντα, είναι συνηθισμένο να λαμβάνεται μια προσέγγιση δειγματοληψίας για να ισορροπήσει η ακρίβεια με τον προϋπολογισμό. Όταν οι έρευνες εκτελούνται πολλές φορές, μπορεί να εμφανιστούν διαφορές στην απόψη, τη σοβαρότητα και τις συνιστώμενες ενέργειες. Αυτό είναι φυσιολογικό, εφόσον η διαφορά είναι εντός eines ορίου ανεκτής διαφοράς, και συμβαίνει ακόμη και όταν δύο διαφορετικοί ανθρώπινοι αναλυτές εξετάζουν την ίδια ειδοποίηση.

Αδιαφανής Λογική, Ή Το Πρόβλημα του “Μαύρου Κουτιού” – Ορισμένοι πράκτορες AI λειτουργούν ως αδιαφανείς συστήματα. Τα αποτελέσματα των AI-driven SOC μπορεί να φαίνονται πολύ εντυπωσιακά στην αρχή, αλλά για σημαντικές επιχειρηματικές αποφάσεις χρειάζεστε να κατανοήσετε τι οδήγησε τον AI SOC να κάνει τις συνιστώμενες ενέργειές του. Αυτό, ωστόσο, δεν είναι μια εγγενής περιορισμός του AI, καθώς ορισμένοι πράκτορες AI πηγαίνουν σε μεγάλο βαθμό να είναι διαφανείς. Συνιστάται να ελέγχετε τους πράκτορες AI徹底τικά σε μια Απόδειξη Αξίας πριν από την υπογραφή.

Πώς το AI στην Ασφάλεια AI έχει Βελτιωθεί

Οι προσεγγίσεις ασφάλειας που οδηγούνται από το AI έχουν κάνει σημαντικά βήματα προς την βελτίωση από τότε που εισήχθησαν για πρώτη φορά. Συμβουλευτείτε τα ακόλουθα:

Συμφωνία με Δειγματοληψία Εξαλείφει την Ασυνεπή – Οι ασυνεπείς αποφάσεις ή αποτελέσματα μπορούν να εξαλειφθούν αποτελεσματικά με τη χρήση πολλών πρακτόρων AI με διαφορετικές ρυθμίσεις (π.χ. διαφορετικά μοντέλα σε διαφορετικές θερμοκρασίες) για να ερμηνεύσουν τα δεδομένα που συλλέγονται από προηγούμενες επιχειρήσεις πρακτόρων.

Η χρήση δειγματοληψίας επιτρέπει στις οργανώσεις να κατανοήσουν πού τα διαφορετικά μοντέλα AI συμφωνούν και πού διαφέρουν. Ως αποτέλεσμα, η εξάρτηση από τις πληροφορίες όπου όλα τα μοντέλα συμφωνούν και η διαγραφή των πληροφοριών όπου διαφέρουν μπορεί να μειώσει σημαντικά την ασυνεπή.

Είναι σημαντικό να σημειωθεί, ωστόσο, ότι οι πληροφορίες όπου οι πράκτορες δειγματοληψίας διαφέρουν είναι επίσης πολύτιμες, поскольку αναγνωρίζουν την αβεβαιότητα και την ανάγκη για καλύτερα δεδομένα ή εισαγωγή. Αυτές οι ασυνεπείς πληροφορίες μπορούν να βοηθήσουν τις οργανώσεις να προτεραιοποιήσουν την πρόσβαση σε απαραίτητα δεδομένα για τη βελτίωση της λήψης αποφάσεων.

Συνεπείς Διαδικασίες με Ερευνες Playbooks – Ένας από τους κύριους λόγους που πολλές εκτελέσεις μιας έρευνας AI SOC οδηγούν σε ασυνεπή αποτελέσματα είναι η διαφορά όχι μόνο στα δεδομένα που συλλέγονται, αλλά και στις υποθέσεις που δημιουργούνται ή τροποποιούνται κατά τη διάρκεια της έρευνας του πρακτόρα AI. Η καθιέρωση eines υψηλού επιπέδου προτύπου λειτουργικής διαδικασίας (SOP) οδηγού για bestimmte κατηγορίες βοηθά τους πρακτόρες να σχηματίζουν πιο συνεπείς υποθέσεις και να βελτιώνουν την συνολική συνεπήτητα των αποτελεσμάτων.

Αυτό δεν είναι μια καινοτόμος προσέγγιση – οι περισσότεροι ανθρώπινοι αναλυτές SOC ήδη βασίζονται σε SOPs για να εξασφαλίσουν αποτελεσματικές και συνεπείς έρευνες. Οι πράκτορες AI μπορούν να χρησιμοποιήσουν SOPs τον ίδιο τρόπο.

Ιχνηλασιμότητα Ευρημάτων Απομυστήνει το Μαύρο Κουτί – Jako μια καλή πρακτική, ένας AI SOC πρέπει να σχεδιαστεί από την αρχή με υποστηρικτικά στοιχεία στο μυαλό. Κάθε απόφαση και υπόθεση που κάνει ένας πράκτορας πρέπει να υποστηρίζεται από υποστηρικτικές πληροφορίες, συμπεριλαμβανομένων ιχνηλασιμότητας και των raw δεδομένων που στηρίζουν αυτήν την ιχνηλασιμότητα.

AI για Ασφάλεια που είναι Αξιόπιστο

Πράκτορες AI μπορούν να επιταχύνουν την ανίχνευση, την τριβή και την ανταπόκριση απειλών στην ασφάλεια, αλλά εισάγουν επίσης πραγματικά рисκ – συμπεριλαμβανομένων ασυνεπών αποτελεσμάτων, αδιαφανών αποφάσεων και ευαισθησίας στην ποιότητα των δεδομένων. Η εμπιστοσύνη για χρήση σε κρίσιμες περιπτώσεις απαιτεί απόδειξη-υποστηριζόμενη λογική, συμπεριλαμβανομένων ιχνηλασιμότητας και raw δεδομένων· δομημένες SOPs για να μειώσουν την διακύμανση· πολλαπλή δειγματοληψία για να分离 τη συναίνεση από την αβεβαιότητα· και φρουροί για την ακεραιότητα των δεδομένων, την έγχυση προώθησης και τα όρια του προϋπολογισμού.

Όλες αυτές οι κρίσιμες επιδιορθώσεις μπορούν να αντιμετωπιστούν με προηγμένες προσεγγίσεις LLM AI που σχεδιάστηκαν για να αντιμετωπίσουν την πολυπλοκότητα των σύγχρονων επιχειρήσεων ασφάλειας που οδηγούνται από το AI. Για παράδειγμα, ορισμένες προηγμένες προσεγγίσεις LLM χρησιμοποιούν προηγμένη δειγματοληψία για να επιτρέψουν στις οργανώσεις να χρησιμοποιήσουν την коллективική νοημοσύνη των διαφορετικών μοντέλων AI που συνεργάζονται για να επιτύχουν συναίνεση, να ελαττώσουν τις ασυνεπείς και να εντοπίσουν τις περιοχές της αβεβαιότητας. Οι δομημένες και σαφείς οδηγίες έρευνας εξασφαλίζουν ότι τα βήματα ανάλυσης ακολουθούν τις καλύτερες πρακτικές και τις τυποποιημένες διαδικασίες, οδηγώντας σε συνεπήτητα και αξιοπιστία σε κάθε λειτουργία.

Η ιχνηλασιμότητα από άκρου σε άκρο οδηγεί σε κάθε απόφαση, σύσταση και αυτόματη ενέργεια να ελέγχεται και να κατανοείται για να παρέχει πλήρη διαφάνεια στις ομάδες ασφάλειας, ενώ παράλληλα χτίζει εμπιστοσύνη με τους μετόχους. Με την ενσωμάτωση αυτών των κρίσιμων στοιχείων – και την εφαρμογή ροβούστων ελέγχων για την ποιότητα δεδομένων, την ασφάλεια και τους φρουρούς λειτουργίας – οι προηγμένες προσεγγίσεις LLM AI επιτρέπουν στα SOCs να επιτύχουν αποτελέσματα που είναι не μόνο αξιόπιστα και διαφανή, αλλά και έτοιμα για παραγωγή για πραγματικά περιβάλλοντα και τις πιο κρίσιμες δραστηριότητες.

Ο Ambuj Kumar είναι συνιδρυτής και CEO της Simbian, της εταιρείας ασφαλείας που τροφοδοτείται από το Gen AI, της οποίας η αποστολή είναι να λύσει τα προβλήματα ασφαλείας με τη χρήση του AI. Ο Ambuj είναι αναγνωρισμένος ηγέτης στον χώρο της κρυπτογραφίας με περισσότερα από 30 патенты στο πεδίο — και πολλές επιτυχημένες startups. Ο Ambuj ήταν επίσης ο αρχιτέκτονας της Cryptography Research Inc., όπου ηγήθηκε και ανέπτυξε πολλές από τις τεχνολογίες ασφαλείας της εταιρείας που ενσωματώνονται σε εκατομμύρια συσκευών κάθε χρόνο. Προηγουμένως, εργάστηκε για την NVIDIA, όπου σχεδίασε τα πιο προηγμένα υπολογιστικά chip του κόσμου, συμπεριλαμβανομένου του ταχύτερου ελεγκτή μνήμης του κόσμου.