Connect with us

Η Ασφάλεια του AI Δεν Είναι Κατεστραμμένη, Απλά Υπερασπίζουμε τα Λάθος Πράγματα

Ηγέτες σκέψης

Η Ασφάλεια του AI Δεν Είναι Κατεστραμμένη, Απλά Υπερασπίζουμε τα Λάθος Πράγματα

mm

Η βιομηχανία κυβερνοασφάλειας έχει ένα μοτίβο όταν εμφανίζεται μια νέα τεχνολογία, αμέσως αρχίζουμε να χτίζουμε τοίχους γύρω της. Το κάναμε με το cloud, το κάναμε με τα containers, και τώρα, το κάνουμε με το AI, εκτός από το ότι αυτή τη φορά, οι τοίχοι που χτίζουμε είναι σε完全 λάθος μέρη.

Περάστε σε οποιαδήποτε επιθεώρηση ασφάλειας επιχείρησης σήμερα, και θα ακούσετε τις ίδιες προτεραιότητες: ασφάλεια μοντέλων AI, προστασία δεδομένων εκπαίδευσης, επικύρωση εξόδων, και ανάπτυξη AI-ενισχυμένων copilots. Οι προμηθευτές βιάζονται να πουλήσουν εργαλεία “ασφάλειας AI” που εστιάζουν αποκλειστικά σε ελέγχους επιπέδου μοντέλου, όπως φράγματα, άμυνες έγχυσης προτύπων, και πλατφόρμες παρακολούθησης μοντέλων.

Αλλά οι επιτιθέμενοι χρησιμοποιούν τις ενσωματώσεις AI σας ως αυτοκινητόδρομους σε όλα τα άλλα.

Η Πραγματική Επιφάνεια Επίθεσης που Κανείς Δεν Παρακολουθεί

Ένα μοτίβο που παρατηρούμε συνεχώς σε περιβάλλοντα επιχειρήσεων λέει μια ανησυχητική ιστορία για ομάδες ασφάλειας που επενδύουν πολύ σε ασφάλεια περιβαλλόντων ανάπτυξης AI: έλεγχοι πρόσβασης μοντέλων, πλαισιαία διακυβέρνησης δεδομένων, εργαλεία ασφάλειας MLOps. Αυτό δίνει μια ψευδή εμπιστοσύνη ότι το AI τους είναι “κλειδωμένο”.

Αλλά όταν χαρτογραφείτε την πραγματική επιφάνεια επίθεσης, βλέπετε ότι τα chatbots AI συχνά κρατούν tokens OAuth για δεκάδες πλατφόρμες SaaS, κλειδιά API με υπερβολικές άδειες cloud, και σχέσεις εμπιστοσύνης ταυτοτήτων που μπορούν να δημιουργήσουν άμεσους δρόμους από μια απλή έγχυση προτύπου σε υποδομή παραγωγής. Τα μοντέλα themselves μπορεί να είναι ασφαλή, αλλά τα οικοσυστήματα στα οποία ζουν συχνά είναι完全 ανοιχτά, και αυτό δεν είναι μια περίπτωση άκρου.

Οι επιχειρήσεις χρησιμοποιούν τώρα μέσο όρο 130+ εφαρμογών SaaS, με ενσωματώσεις AI που εκτείνονται σε παρόχους ταυτοτήτων, υποδομή cloud, βάσεις δεδομένων, και συστήματα κρίσιμης επιχείρησης. Κάθε ενσωμάτωση είναι ένας πιθανός δρόμος επίθεσης, και κάθε σύνδεση API είναι ένα όριο εμπιστοσύνης που οι επιτιθέμενοι ενεργά διερευνούν.

Το πρόβλημα δεν είναι ότι τα εργαλεία ασφάλειας AI μας είναι κατεστραμμένα. Είναι ότι ασφαλίζουμε 개별 компоненты ενώ οι επιτιθέμενοι εκμεταλλεύονται τις συνδέσεις μεταξύ τους.

Γιατί η Ασφάλεια Κεντρική στο Μοντέλο Χάνει το Σημείο

Η τρέχουσα προσέγγιση της ασφάλειας AI λειτουργεί σε μια θεμελιώδη παρεξήγηση του πώς λειτουργούν οι σύγχρονες επιθέσεις. Θεωρούμε το AI ως một αυτόνομο περιουσιακό στοιχείο που χρειάζεται προστασία, παρόμοια με το πώς θα ασφαλίσει μια βάση δεδομένων ή μια εφαρμογή web. Αλλά το AI σε παραγωγή δεν υπάρχει σε απομόνωση. Είναι ένα κόμβος σε ένα σύνθετο γράφο ταυτοτήτων, άδεια, API, και ροών δεδομένων.

Σκεφτείτε μια τυπική ανάπτυξη AI επιχείρησης. Έχετε έναν πράκτορα AI με πρόσβαση στο Google Workspace. Είναι συνδεδεμένος με το Salesforce μέσω API. Είναι ενσωματωμένος με το Slack για ειδοποιήσεις. Είναι ρυθμισμένος για να τραβήξει δεδομένα από buckets AWS S3. Είναι πιστοποιημένος μέσω Okta ή Azure AD. Είναι ενεργοποιημένος για να εκκινήσει εργασίες στο ServiceNow.

Η παραδοσιακή ασφάλεια AI εστιάζει στο μοντέλο selbst: την ασφάλεια του, την επικύρωση προτύπων, την ασφάλεια εξόδων. Αλλά οι επιτιθέμενοι εστιάζουν στις ενσωματώσεις: τι μπορούν να φτάσουν μέσω των συναλλαγών υπηρεσιών, που μπορούν να κινηθούν μέσω χειρισμών API, ποιες σχέσεις εμπιστοσύνης μπορούν να διασχίσουν μέσω εκμεταλλεύσεων ενσωματώσεων.

Η επίθεση δεν αρχίζει ή τελειώνει με το μοντέλο AI. Το μοντέλο είναι απλά το σημείο εισόδου.

Οι Δρόμοι Επίθεσης Δεν Σέβονται τα Όρια Προϊόντων

Εδώ είναι όπου οι περισσότερες οργανώσεις μπερδεύονται. Έχουν αναπτύξει εργαλεία ασφάλειας που κάθε ένα παρέχει ορατότητα σε ένα μόνο domaine. Ένα εργαλείο παρακολουθεί τις άδειες cloud. Ένα άλλο παρακολουθεί τις ρυθμίσεις SaaS. Ένα τρίτο διαχειρίζεται τη διακυβέρνηση ταυτοτήτων. Ένα τέταρτο χειρίζεται τη διαχείριση ευπαθειών.

Κάθε εργαλείο σας δείχνει το κομμάτι του puzzle. Κανένα από αυτά δεν σας δείχνει πώς τα κομμάτια συνδέονται.

Σύμφωνα με το Gartner, οι οργανώσεις χρησιμοποιούν τώρα μέσο όρο 45+ εργαλεία ασφάλειας. Παρόλα αυτά, παρά αυτή τη μεγάλη επένδυση, οι επιτιθέμενοι είναι επιτυχημένοι στο να συνδέουν τις διαρρυθμίσεις λάθους σε αυτά τα domaine επειδή κανένα εργαλείο δεν μπορεί να δει τον πλήρη δρόμο επίθεσης.

Ένας επιτιθέμενος δεν χρειάζεται να βρει μια κρίσιμη ευπάθεια στο μοντέλο AI σας. Απλά χρειάζεται να βρει μια αλυσίδα. Ίσως είναι ένας λάθος ρόλος IAM που είναι συνδεδεμένος με την υπηρεσία AI σας, ο οποίος έχει άδειες σε ένα bucket S3, το οποίο περιέχει διαπιστευτήρια σε μια εφαρμογή SaaS που έχει πρόσβαση admin στο περιβάλλον παραγωγής σας.

Κάθε μεμονωμένη διαρρύθμιση λάθους μπορεί να έχει βαθμολογία “μεσαία” ή “χαμηλή” στα εργαλεία ασφάλειας σας. Αλλά συνδεδεμένα; Αυτό είναι μια κρίσιμη έκθεση. Και είναι完全 αόρατο αν κοιτάτε κάθε domaine ασφάλειας σε απομόνωση.

Η Αναγκαιότητα Διαχείρισης Εκθέσεων

Αυτό είναι γιατί η συζήτηση πρέπει να μετατοπιστεί από “ασφάλεια AI” στη συνεχή διαχείριση εκθέσεων απειλών για περιβάλλοντα που ενσωματώνουν AI.

Δεν είναι αρκετό να ρωτήσετε αν τα μοντέλα AI σας είναι ασφαλή. Οι ομάδες ασφάλειας χρειάζεται να κατανοήσουν τι μπορεί να φτάσει ένας επιτιθέμενος αν συμβιβαστεί μια υπηρεσία AI. Χρειάζεται ορατότητα σε πώς οι διαρρυθμίσεις λάθους σε cloud, SaaS, και συστήματα ταυτοτήτων θα μπορούσαν να συνδεθούν. Χρειάζεται να γνωρίζουν πώς οι ενσωματώσεις AI αλλάζουν την επιφάνεια επίθεσης σε πραγματικό χρόνο. Και χρειάζεται να προτεραιοποιήσουν τους κινδύνους με βάση την πραγματική επιθετικότητα, όχι μόνο βαθμολογίες σοβαρότητας.

Οι περισσότερες προγράμματα ασφάλειας ainda προτεραιοποιούν τους κινδύνους σε απομόνωση, χρησιμοποιώντας βαθμολογίες CVSS και λίστες ελέγχου συμμόρφωσης που完全 αγνοούν αν μια ευπάθεια είναι πραγματικά εκμεταλλεύσιμη στο συγκεκριμένο περιβάλλον σας.

Αυτό το κενό είναι ακόμη πιο έντονο με συστήματα AI επειδή αυτά αλλάζουν συνεχώς. Νέες ενσωματώσεις προστίθενται εβδομαδιαία. Άδειες εξελίσσονται. Σύνδεσμοι API μετατοπίζονται. Η επιφάνεια επίθεσης του τελευταίου μήνα δεν είναι η επιφάνεια επίθεσης σας σήμερα, αλλά η αξιολόγηση ασφάλειας σας πιθανότατα είναι.

Τι είναι η Ασφάλεια που Είναι Γνωστή για τους Δρόμους Επίθεσης

Η ασφάλεια του AI σε παραγωγή απαιτεί μια θεμελιωδώς διαφορετική προσέγγιση, και έρχεται σε τέσσερις βασικές μετατοπίσεις στη σκέψη.

Πρώτον, χρειάζεστε ενοποιημένη ορατότητα σε όλα τα domaine ασφάλειας. Σταματήστε να ζητάτε από κάθε εργαλείο ασφάλειας να λειτουργήσει σε δική του απομόνωση. Τα εργαλεία ασφάλειας cloud, διακυβέρνησης ταυτοτήτων, διαχείρισης SaaS, και σκαννερ ευπαθειών σας κρατούν κομμάτια του puzzle της επιφάνειας επίθεσης. Χρειάζεται να μοιράζονται δεδομένα σε πραγματικό χρόνο ώστε να δείτε πώς οι διαρρυθμίσεις λάθους συνδέονται.

Δεύτερον, ενστερνιστείτε τη συνεχή προσομοίωση δρόμων επίθεσης. Μην περιμένετε τις δοκιμές διείσδυσης ή τις ασκήσεις red team για να ανακαλύψετε εκμεταλλεύσιμους δρόμους. Συνεχώς δοκιμάστε πώς ένας επιτιθέμενος θα μπορούσε να κινηθεί στο περιβάλλον σας, εστιάζοντας στην πραγματική εκμεταλλεύσιμη rather niż στη βαθμολογία σοβαρότητας.

Τρίτον, προτεραιοποιήστε με βάση το контέκστ. Μια διαρρύθμιση λάθους σε ένα bucket S3 δεν είναι κρίσιμη μόνο και μόνο επειδή είναι δημόσιο. Είναι κρίσιμη αν είναι δημόσιο και περιέχει διαπιστευτήρια και αυτά τα διαπιστευτήρια έχουν προνομιακή πρόσβαση, και είναι προσβάσιμα από ένα asset που εκτίθεται στο διαδίκτυο. Το контέκστ matters περισσότερο από οποιαδήποτε μεμονωμένη βαθμολογία.

Τέταρτον, κινηθείτε προς τη προληπτική αποκατάσταση. Μέχρι τη στιγμή που η ομάδα SOC σας ερευνά μια ειδοποίηση, έχετε ήδη χάσει πολύτιμο χρόνο απόκρισης. Η σύγχρονη άμυνα απαιτεί τη δυνατότητα να κλείσετε εκμεταλλεύσιμους δρόμους πριν από το ότι είναι οπλισμένοι, όχι μετά από ένα περιστατικό.

Η Προειδοποίηση που Δεν Μπορούμε να Αγνοήσουμε

Όσο το AI γίνεται ενσωματωμένο σε κάθε επίπεδο του στρώματος επιχείρησης, η επιφάνεια επίθεσης επεκτείνεται γρηγορότερα από ό,τι οι ομάδες ασφάλειας μπορούν να συλλογισθούν χειροκίνητα. Προσθέτουμε ενσωματώσεις AI με δέκα φορές το ρυθμό που τις ασφαλίζουμε.

Αν ασφαλίζετε το AI σε απομόνωση, προστατεύοντας το μοντέλο ενώ αγνοείτε το οικοσύστημα στο οποίο λειτουργεί, ήδη είστε πίσω. Οι επιτιθέμενοι δεν σκέφτονται σε εργαλεία, σκέφτονται σε δρόμους. Δεν εκμεταλλεύονται μεμονωμένες ευπαθειές. Συνδέουν τις διαρρυθμίσεις λάθους σε όλο το περιβάλλον σας.

Οι επιχειρήσεις που θα ασφαλίσουν επιτυχημένα το AI δεν θα είναι αυτές με τα περισσότερα εργαλεία ασφάλειας AI. Θα είναι αυτές που κατανοούν ότι η ασφάλεια AI είναι αδιαχώριστη από τη διαχείριση εκθέσεων σε όλη την επιφάνεια επίθεσης.

Η ασφάλεια μοντέλων είναι το ελάχιστο. Αυτό που μετράει είναι η κατανόηση τι μπορεί να φτάσει ένας επιτιθέμενος αν συμβιβαστεί μια ενσωμάτωση AI. Μέχρι οι ομάδες ασφάλειας να μπορέσουν να απαντήσουν συνεχώς, σε πραγματικό χρόνο, σε όλο το περιβάλλον, δεν ασφαλίζουν το AI. Απλά ελπίζουν ότι οι τοίχοι που έχουν χτίσει είναι στα σωστά μέρη.

O Piyush Sharma, Co-Founder & CEO της Tuskira, φέρνει πάνω από δύο δεκαετίες εμπειρίας στην κυβερνοασφάλεια, που υποστηρίζεται από πτυχίο στην Επιστήμη των Υπολογιστών και MBA. Ένας σειριακός επιχειρηματίας με δύο επιτυχείς εξόδους, ο Piyush έχει κατέχει εξέχουσες θέσεις ηγεσίας προϊόντων και επιχειρήσεων, συμπεριλαμβανομένων των Symantec & Tenable. Υπηρέτησε επίσης ως CEO και συνιδρυτής της Accurics, η οποία αργότερα αγοράστηκε από την Tenable Inc. Ένας καταξιωμένος εφευρέτης, ο Piyush κατέχει ένα δωδεκάδα патентов στην κυβερνοασφάλεια, αποδεικνύοντας τις καινοτομικές συνεισφορές του στο πεδίο.