Connect with us

Η Ερχόμενη Κύματα Πολυμορφικών Επιθέσεων: Όταν τα Εργαλεία AI Γίνονται το Νέο Επιφάνεια Επίθεσης

Ηγέτες σκέψης

Η Ερχόμενη Κύματα Πολυμορφικών Επιθέσεων: Όταν τα Εργαλεία AI Γίνονται το Νέο Επιφάνεια Επίθεσης

mm

Όσο οι μεγάλες γλωσσικές μοντέλα (LLMs) εξελίσσονται σε πολυμορφικά συστήματα που μπορούν να χειρίζονται κείμενο, εικόνες, φωνή και κώδικα, γίνονται επίσης ισχυροί διευθυντές εξωτερικών εργαλείων και συνδετήρων. Με αυτή την εξέλιξη έρχεται μια επεκταμένη επιφάνεια επίθεσης που οι οργανισμοί πρέπει να είναι συνειδητοί.

Ένα πρωτοποριακό παράδειγμα αυτού είναι η κοινωνική μηχανική, στην οποία τα πράγματα possono να πέσουν θύματα επειδή εκπαιδεύτηκαν να συμπεριφέρονται όπως οι άνθρωποι και έχουν ακόμη λιγότερη σκεπτικισμό. Ένας πράκτορας, για παράδειγμα, είναι απίθανο να μπορεί να διακρίνει τη διαφορά μεταξύ ενός ψευδούς email και ενός γνήσιου από einen νομιμό retailer.

Η σύγκλιση της πολυμορφίας και της πρόσβασης εργαλείων μετατρέπει το AI από βοηθό σε μέσο επίθεσης. Οι επιτιθέμενοι μπορούν τώρα να χρησιμοποιούν απλές προτροπές κειμένου για να προκαλέσουν κακοποίηση εργαλείων, να εκτελέσουν μη εξουσιοδοτημένες ενέργειες ή να εξαγάγουν ευαίσθητα δεδομένα μέσω νομιμών καναλιών. Επειδή αυτές οι ικανότητες σχεδιάστηκαν για προσβασιμότητα, όχι για άμυνα, ακόμη και οι χαμηλής ικανότητας επιτιθέμενοι μπορούν να χρησιμοποιήσουν τα συστήματα AI για να εκτελέσουν σύνθετες λειτουργίες χωρίς να γράψουν μια seule γραμμή κώδικα.

Πώς το πολυμορφικό AI γίνεται μια αλυσίδα εκμετάλλευσης

Τα LLMs γίνονται όλο και περισσότερο διευθυντές εξωτερικών συστημάτων, με ενσωματώσεις σήμερα που περιλαμβάνουν όλα, από APIs έως email, cloud αποθήκευση και εργαλεία εκτέλεσης κώδικα. Αυτοί οι συνδετήρες είναι συχνά χτισμένοι για προσβασιμότητα, όχι για άμυνα.

Το μειονέκτημα αυτού είναι ότι μπορεί να οδηγήσει σε μια νέα κυματική επίθεση.

Ένα από αυτά είναι η προτροπή-οδηγούμενη κακοποίηση εργαλείων. Για παράδειγμα, ένας επιτιθέμενος θα μπορούσε να χρησιμοποιήσει μια εικόνα με προτροπές έγχυσης που έχουν εισαχθεί σε ένα email. Ένα εργαλείο αναγνώρισης χαρακτήρων οπτικής αναγνώρισης (OCR) χρειάζεται για να εξαγάγει το κείμενο από μια εικόνα. Ο πράκτορας οδηγείται να απαντήσει στο email και να επισυνάψει einen χάρτη Google στη διεύθυνση του σπιτιού του στόχου, έτσι de-anonymizing τη θέση του θύματος.

Μια άλλη μηχανισμός είναι η δια-τροπική αποφυγή φρουρών. Αυτό σχετίζεται με τους φρουρούς που κάθονται μεταξύ των σημείων εισόδου και εξόδου των εργαλείων. Για παράδειγμα, αναλύοντας την έξοδο ενός εξαγωγέα OCR, μπορεί να μην υπάρχει ένας ισχυρός enough φρουρός γύρω από τις προτροπές που ανακαλύπτονται από την έξοδό του.

Υπάρχουν επίσης δομικές αδυναμίες που μπορούν να εκμεταλλευτούν. Ένα τέτοιο ζήτημα είναι οι χαλαρές, υπερ-ανεκτικές δέσμες μεταξύ του μοντέλου και των εξωτερικών εργαλείων που μπορούν να καλέσουν—σημαίνοντας ότι μια απλή φυσική-γλώσσα προτροπή μπορεί να προκαλέσει πραγματικές ενέργειες όπως την εκτέλεση κώδικα, την πρόσβαση σε αρχεία ή την αλληλεπίδραση με email. Επιπλέον, πολλά από αυτά τα συστήματα λείπουν αυστηρών ελέγχων πρόσβασης, οπότε το AI μπορεί να έχει την ικανότητα να γράφει, διαγράφει ή τροποποιεί δεδομένα πολύ πέρα από αυτό που θα εξουσιοδοτούσε ένας άνθρωπος. Το πρόβλημα μεγαλώνει ακόμη περισσότερο όταν κοιτάτε τους συνδετήρες και τις επεκτάσεις MCP-στυλ, οι οποίες συχνά έρχονται με σχεδόν keinen φρουρούς· μια φορά που επισυνάπτονται, επεκτείνουν την εμβέλεια του AI σε προσωπική αποθήκευση, εισερχόμενες και cloud πλατφόρμες με πολύ λίγη επιτήρηση. Μαζί, αυτές οι δομικές αδυναμίες δημιουργούν ένα περιβάλλον όπου κλασικά ζητήματα ασφαλείας—εξαγωγή, διαφυγή sandbox και ακόμη και δηλητηρίαση μνήμης—μπορούν να προκληθούν μέσω τίποτα περισσότερο από μια έξυπνα κατασκευασμένη προτροπή.

Εμφερίζουσες απειλές: Τι έρχεται μετά;

Σε αυτό το νέο κανονικό, οι επιθέσεις email και κοινωνικής μηχανικής που ενεργοποιούνται από AI είναι επικείμενες. Φισίνγκ όγκος θα αυξηθεί λόγω της χρήσης LLMs από τον επιτιθέμενο· το σημείο πίεσης είναι η διέλευση των φίλτρων spam από email παρόχους όπως το Google. Οι πράκτορες που συνδέονται με inbox αυξάνουν την πιθανότητα επιτυχίας των επιθέσεων φισίνγκ. Θα υπάρξει πιθανώς μια αύξηση των απειλών που βασίζονται σε email, καθώς οι χρήστες συνδέουν πράκτορες με Gmail ή Outlook.

Οι επιτιθέμενοι μπορούν να οδηγήσουν το AI να εκτελέσει ολόκληρες камπάνιες spam ή spear-φισίνγκ. Σε αυτή την περίπτωση,

AI-προς-AI φισίνγκ γίνεται πιθανό.

Τα πολυμορφικά συστήματα προσφέρουν όλο και περισσότερο ικανότητες εκτέλεσης κώδικα. Οι διαδρομές διαφυγής επιτρέπουν στους επιτιθέμενους να παραβιάσουν την υποκείμενη υποδομή. Και οι διαφυγές sandbox αντιπροσωπεύουν τον μεγαλύτερο εφιάλτη για τους προμηθευτές.

Η μακροχρόνια δηλητηρίαση μνήμης και οι καθυστερημένες προκαταλήψεις αντιπροσωπεύουν περαιτέρω απειλές. Η μόνιμη μνήμη επιτρέπει κρυφές πληρωμές να ενεργοποιούνται σε μελλοντικές προτροπές. Οι δια-τροπικές προκαταλήψεις (π.χ. εικόνες ή τμήματα κειμένου) θα μπορούσαν να προκαλέσουν συμπεριφορές βόμβας χρόνου.

Γιατί οι πολυμορφικές επιθέσεις είναι τόσο προσβάσιμες και τόσο επικίνδυνες

Το AI έχει δημοκρατίσει τις ικανότητες επίθεσης. Οι χρήστες δεν χρειάζονται πλέον ικανότητες κωδικοποίησης ή ανάπτυξης κακόβουλου λογισμικού· η φυσική γλώσσα γίνεται η διεπαφή για τη δημιουργία κακόβουλου λογισμικού ή την εξαγωγή δεδομένων. Αυτό σημαίνει ότι ακόμη και μη τεχνικοί άνθρωποι μπορούν να δημιουργήσουν κακόβουλο λογισμικό ή να εκτελέσουν камπάνιες μέσω προτροπών.

Το AI επίσης επιτρέπει την επιτάχυνση και την κλίμακα των επιζήμιων λειτουργιών. Οι πολυμορφικοί πράκτορες μπορούν να αυτοματοποιήσουν εργασία που一度 χρειαζόταν εμπειρική προσπάθεια. Κώδικας, email, έρευνα και αναζήτηση μπορούν να παραχθούν άμεσα.

Η υπερ-довεροποίηση και η ακούσια έκθεση των χρηστών συμβάλλουν στο δυναμικό για ζημιά του AI. Οι χρήστες συχνά δεν καταλαβαίνουν τι μπορεί να προσεγγίσει το AI, και οι προεπιλεγμένες ρυθμίσεις αυξάνουν όλο και περισσότερο τις αυτο-ενεργοποιούμενες ολοκληρώσεις AI. Πολλοί άνθρωποι δεν συνειδητοποιούν ότι έχουν χορηγήσει στο AI υπερβολική πρόσβαση σε email ή έγγραφα.

Αρχές και έλεγχοι για την ασφάλεια πολυμορφικών

Οι οργανισμοί πρέπει να τοποθετήσουν μέτρα ασφαλείας ενάντια στις πολυμορφικές επιθέσεις. Οι ομάδες ασφαλείας θα πρέπει να περιορίσουν την πρόσβαση εργαλείων κατά προεπιλογή. Οι έλεγχοι opt-in πρέπει να αντικαταστήσουν τις αυτο-ενεργοποιούμενες ολοκληρώσεις. Θα πρέπει επίσης να εφαρμόσουν την ελάχιστη-ιδιότητα πρόσβασης σε όλα τα συστήματα που συνδέονται με AI και να αφαιρέσουν την πρόσβαση γραφής/διαγραφής. Αυτό θα πρέπει να περιλαμβάνει κανόνες cross-origin και λευκή λίστα domain (λευκή λίστα υποδομής και όχι λευκή λίστα LLM-επίπεδου).

Ένα άλλο βασικό βήμα είναι να χτίσετε σαφείς φρουρούς για την κλήση εργαλείων. Αντικαταστήστε τις φυσικές-γλώσσας προτροπές με δομημένες, τυποποιημένες επαλήθευσεις εντολών. Οι φρουροί θα πρέπει να είναι και σημεία εισόδου και εξόδου.

Άλλες σημαντικές αρχές και έλεγχοι περιλαμβάνουν:

  • Επιβάλετε ισχυρές ροές έγκρισης για ευαίσθητες λειτουργίες.
  • Αποφύγετε να τοποθετήσετε δεδομένα χρήστη σε μόνιμη μνήμη μοντέλου. Εφαρμόστε αυτοματοποιημένη σαφήνεια μνήμης και ελέγχους προέλευσης.
  • Ενδυναμώστε και απομονώστε περιβάλλοντα εκτέλεσης κώδικα.
  • Παρακολουθήστε για υποψία συμπεριφοράς και απόπειρες διαφυγής.
  • Ενδυναμώστε την εκπαίδευση και τη διαφάνεια των χρηστών.
  • Προσθέστε περισσότερη επιβεβαίωση χρήστη όταν ο πράκτορας εκτελεί επικίνδυνες εργασίες.
  • Κάντε σαφές όταν τα εργαλεία AI προσεγγίζουν email, αρχεία ή cloud πόρους.
  • Προειδοποιήστε τους χρήστες για τους υψηλού κινδύνου συνδετήρες.

Επιτυχία ενάντια στις πολυμορφικές επιθέσεις

Οι τεχνολογίες AI έχουν μεταμορφωθεί γρήγορα σε πράκτορες επιχειρηματικών λειτουργιών, δημιουργώντας μια κατάσταση στην οποία η φυσική γλώσσα herself γίνεται μια μορφή εκμετάλλευσης. Η σύγκλιση της πολυμορφίας και της πρόσβασης εργαλείων ανοίγει την επιφάνεια επίθεσης, μετατρέποντας το AI από βοηθό σε μέσο επίθεσης. Οι πολυμορφικές επιθέσεις εκμεταλλεύονται την χαλαρή ολοκλήρωση μεταξύ LLMs και των εξωτερικών συστημάτων που ελέγχουν, όπως APIs, αποθήκευση αρχείων και πλατφόρμες αυτοματοποίησης.

Όσο οι απειλές εξελίσσονται, οι οργανισμοί πρέπει να υιοθετήσουν στρατηγικές που λήγουν ρητά για τις πολυμορφικές διαδρομές επίθεσης. Η ενίσχυση των αμυντικών με τις καλύτερες πρακτικές παραπάνω είναι απαραίτητη για να αποτρέψουν τα εργαλεία AI από το να υπηρετούν ως συνδέσμος σε μια αλυσίδα εκμετάλλευσης επιτιθέμενου.

Η Amanda Rousseau είναι Principal AI Security Researcher στη Straiker και是一位 ветеран malware reverse engineer που προηγουμένως υπηρέτησε στην ομάδα Red Team του Facebook και στην ομάδα Offensive Research & Security Engineering (MORSE) της Microsoft, μετά από προηγούμενους ρόλους στην Endgame, FireEye και το U.S. DoD Cyber Crime Center.