Συνεντεύξεις
Ashley Rose, Ιδρυτής και Διευθύνων Σύμβουλος της Living Security – Σειρά Συνεντεύξεων

Ashley Rose, Ιδρυτής και Διευθύνων Σύμβουλος της Living Security, είναι ένας σειριακός επιχειρηματίας και καινοτόμος στον τομέα της κυβερνοασφάλειας, επικεντρωμένος στην αναedefinition του τρόπου με τον οποίο οι οργανισμοί αντιμετωπίζουν τον ανθρώπινο κίνδυνο στην ασφάλεια. Από την ίδρυση της εταιρείας το 2017, έχει ηγηθεί της ανάπτυξης μιας προσεγγίσεως βασισμένης σε δεδομένα και συμπεριφορά για την κυβερνοασφάλεια, η οποία ξεπερνά την παραδοσιακή εκπαίδευση επίγνωσης και προχωρά προς τη μετρήσιμη μείωση του κινδύνου και την αλλαγή της văn化ς. Χρησιμοποιώντας το υπόβαθρό της στην ηγεσία προϊόντων και την επιχειρηματικότητα, έχει βοηθήσει να αναπτυχθεί η Living Security σε μια ταχέως εξελισσόμενη πλατφόρμα SaaS, η οποία χρησιμοποιείται από οργανισμούς επιχειρήσεων, ενώ συμβάλλει επίσης στο ευρύτερο οικοσύστημα της κυβερνοασφάλειας ως μέντορας, σύμβουλος και υποστηρικτής πρωτοβουλιών όπως οι Γυναίκες στην Κυβερνοασφάλεια.
Living Security είναι μια εταιρεία κυβερνοασφάλειας SaaS που επικεντρώνεται στη Διαχείριση Ανθρώπινου Κινδύνου, βοηθώντας τους οργανισμούς να αναγνωρίσουν, να μετρήσουν και να μειώσουν τους κινδύνους που συνδέονται με τη συμπεριφορά των εργαζομένων. Η πλατφόρμα της συνδυάζει δεδομένα συμπεριφοράς, ταυτότητας και απειλών για να εντοπίσει τους χρήστες υψηλού κινδύνου και να παρέχει στοχευμένη, πραγματικού χρόνου εκπαίδευση και παρέμβαση, σχεδιασμένες για να προληφθούν οι παραβιάσεις πριν συμβούν. Συνδυάζοντας ανάλυση, αυτοματοποίηση και μεθόδους εκπαίδευσης όπως προσομοιώσεις και gamified εμπειρίες, η εταιρεία ermögňuje στους οργανισμούς να μετατοπίσουν από την εκπαίδευση επίγνωσης που βασίζεται στην συμμόρφωση προς μια προληπτική, μετρήσιμη μείωση του κινδύνου σε όλο το εργατικό δυναμικό.
Ιδρύσατε την Living Security το 2017 μετά από προηγούμενη εμπειρία στη δημιουργία και ανάπτυξη ενός καταναλωτικού προϊόντος και εργασίας ως ιδιοκτήτης προϊόντος. Ποια συγκεκριμένη στιγμή ή συμπόρευση σας οδήγησε να μετατοπίστε στην κυβερνοασφάλεια και να επικεντρωθείτε στον ανθρώπινο κίνδυνο, και πώς έχει διατηρηθεί η αρχική σας θέση καθώς η Τεχνητή Νοημοσύνη γίνεται μέρος του εργατικού δυναμικού;
Το 2017, οι περισσότεροι οργανισμοί αντιμετώπιζαν την εκπαίδευση επίγνωσης ασφάλειας ως ένα τσεκ μποξ άσκησης, και δεν άλλαζε τη συμπεριφορά. Το σημείο καμπής ήταν η συνειδητοποίηση ότι αν η ανθρώπινη συμπεριφορά οδηγούσε τις παραβιάσεις, η απάντηση δεν μπορούσε να είναι περισσότερη λησμονημένη εκπαίδευση. Ο Drew Rose, συνιδρυτής της Living Security, διηύθυνε προγράμματα ασφάλειας ο ίδιος και άρχισε να γκαμιφάει, δημιουργώντας πρώιμα πρωτότυπα που έγιναν κυβερνοασφαλείς δωμάτια διαφυγής. Είδαμε από πρώτο χέρι ότι όταν κάνατε την ασφάλεια εμπειρική, οι άνθρωποι ενεπλάκησαν, έμαθαν και πραγματικά άλλαξαν τη συμπεριφορά. Αυτό έγινε η βάση για την Living Security.
Ως συνιδρυτές, ο Drew και εγώ συνειδητοποιήσαμε γρήγορα ότι η εμπλοκή ήταν μόνο η αρχή. Όσο επεκτείναμε αυτές τις εμπειρίες σε μια πλατφόρμα, άρχισα να βλέπω μοτίβα σε тому πώς οι άνθρωποι συμπεριφέρονταν, όπου δυσκολεύονταν και όπου ο κίνδυνος ήταν πραγματικά συγκεντρωμένος. Αυτό εξέθεσε ένα πολύ μεγαλύτερο κενό: οι οργανισμοί δεν είχαν πραγματική ορατότητα στο ανθρώπινο κίνδυνο ή πώς να τον μειώσουν με στοχευμένο τρόπο. Αυτή η εύρεση μας οδήγησε να πιονερίσουμε τη Διαχείριση Ανθρώπινου Κινδύνου, η οποία αφορά την αναγνώριση, μέτρηση και μείωση του κινδύνου με βάση την ατομική συμπεριφορά, πρόσβαση και απειλές, και όχι μόνο την παροχή εκπαίδευσης. Όσο η Τεχνητή Νοημοσύνη ενσωματώνεται στο εργατικό δυναμικό, η αρχική μας θέση έχει μόνο επεκταθεί: η πρόκληση δεν είναι πλέον μόνο η ανθρώπινη συμπεριφορά, αλλά πώς οι άνθρωποι και τα συστήματα Τεχνητής Νοημοσύνης λειτουργούν μαζί. Οι άνθρωποι παραμένουν στο κέντρο, τώρα διαχειρίζονται και αναπτύσσουν πράκτορες Τεχνητής Νοημοσύνης, που σημαίνει ότι πρέπει να επεκτείνετε την ορατότητα σε αυτούς τους πράκτορες και να συνδέσετε τον κίνδυνο πίσω στο άτομο. Αυτό είναι που οδηγεί την εξέλιξη μας στην Ασφάλεια Εργατικού Δυναμικού.
Έχετε υποστηρίξει ότι ο ανθρώπινος λάθος είναι μια непλήρης εξήγηση για τις παραβιάσεις. Πώς πρέπει οι οργανισμοί να ξανασκέφτουν τον κίνδυνο του εργατικού δυναμικού σήμερα, όταν τόσο η ανθρώπινη συμπεριφορά όσο και οι ενέργειες της Τεχνητής Νοημοσύνης συμβάλλουν στην επιφάνεια επίθεσης;
Η περιγραφή των παραβιάσεων ως “ανθρώπινου λάθους” απλοποιεί υπερβολικά το πρόβλημα και αποκρύπτει από πού προέρχεται πραγματικά ο κίνδυνος. Ο ανθρώπινος κίνδυνος δεν αφορά μόνο λάθη, αλλά διαμορφώνεται από μια συνδυασμένη ανθρώπινη συμπεριφορά, πρόσβαση και έκθεση σε απειλές. Κάποιοι εργαζόμενοι έχουν προνομιακή πρόσβαση σε ευαίσθητα συστήματα, κάποιοι στοχεύονται πιο συχνά και κάποιοι παρουσιάζουν πιο επικίνδυνες συμπεριφορές, οπότε ο κίνδυνος παραβιάσεων δεν είναι ομοιόμορφα κατανεμημένος. Για να κατανοήσουν πραγματικά τον κίνδυνο, οι οργανισμοί χρειάζονται ορατότητα σε đâu αυτοί οι παράγοντες τέμνονται και όπου υπάρχει ανθρώπινος κίνδυνος.
Ως αποτέλεσμα, οι οργανισμοί πρέπει να μετατοπίσουν πέρα από τα μοντέλα επίγνωσης και να ξανασκέφτουν τον κίνδυνο του εργατικού δυναμικού ως eine κοινή, λειτουργική πρόκληση, η οποία περιλαμβάνει τόσο τον ανθρώπινο κίνδυνο όσο και τις ενέργειες της Τεχνητής Νοημοσύνης. Αυτό σημαίνει εστίαση στην συνεχής ορατότητα του πώς εκτελείται η εργασία, κατανόηση του πού είναι συγκεντρωμένος ο κίνδυνος και εφαρμογή στοχευμένων, πραγματικού χρόνου παρεμβάσεων σε ένα υβριδικό εργατικό δυναμικό, αντί να αντιμετωπίζουν τον κίνδυνο ως απομονωμένα λάθη χρηστών.
Τα εργαλεία Τεχνητής Νοημοσύνης τώρα συντάσσουν κώδικα, χειρίζονται ροές εργασίας και ακόμη και λαμβάνουν αποφάσεις. Σε ποιο σημείο τα συστήματα Τεχνητής Νοημοσύνης παύουν να είναι εργαλεία και αρχίζουν να αντιμετωπίζονται ως μέρος του εργατικού δυναμικού από την άποψη της ασφάλειας;
Τα συστήματα Τεχνητής Νοημοσύνης παύουν να είναι απλά εργαλεία και αρχίζουν να αντιμετωπίζονται ως μέρος του εργατικού δυναμικού τη στιγμή που λαμβάνουν δράση μέσα σε περιβάλλοντα επιχειρήσεων. Σε εκείνο το σημείο, εισάγουν κίνδυνο με τον ίδιο τρόπο που οι εργαζόμενοι: μέσω των ενεργειών που λαμβάνουν, των προνομίων που λειτουργούν και των δεδομένων που αγγίζουν. Η μετατόπιση για τους οργανισμούς είναι η αναγνώριση ότι οι πράκτορες Τεχνητής Νοημοσύνης δεν είναι απλά στρώματα παραγωγικότητας – είναι λειτουργικοί συμμετέχοντες, και χρειάζονται διακυβέρνηση, παρακολούθηση και ασφάλεια παράλληλα με τους ανθρώπινους χρήστες σε ένα ενοποιημένο μοντέλο κινδύνου εργατικού δυναμικού.
Πώς πρέπει οι επιχειρήσεις να αντιμετωπίσουν τη διακυβέρνηση όταν ο κίνδυνος δεν είναι πλέον περιορισμένος στους εργαζομένους, αλλά επεκτείνεται και στους πράκτορες Τεχνητής Νοημοσύνης που λειτουργούν με ποικίλους βαθμούς αυτονομίας και πρόσβασης;
Οι επιχειρήσεις πρέπει να μετατοπίσουν πέρα από τη διακυβέρνηση βασισμένη σε πολιτικές και να την αντιμετωπίσουν ως μια συνεχής, συμπεριφορική διαδικασία που εφαρμόζεται και στους ανθρώπινους και στους πράκτορες Τεχνητής Νοημοσύνης. Οι περισσότεροι οργανισμοί ήδη έχουν πολιτικές Τεχνητής Νοημοσύνης στη θέση τους, αλλά το κενό είναι στην επιβολή και ορατότητα, ιδιαίτερα καθώς οι εργαζόμενοι υιοθετούν εργαλεία πέρα από τα εγκεκριμένα περιβάλλοντα και τα συστήματα Τεχνητής Νοημοσύνης λειτουργούν με ποικίλους βαθμούς πρόσβασης.
Η αποτελεσματική διακυβέρνηση αρχίζει με τη σαφή ορισμό της αποδεκτής χρήσης με βάση τον ρόλο και την πρόσβαση δεδομένων, αλλά cũng απαιτεί πραγματικού χρόνου οδηγίες που είναι ενσωματωμένες στις ροές εργασίας και συνεχής μέτρηση, ώστε οι οργανισμοί να μπορούν να δουν όπου εμφανίζεται ο κίνδυνος και να προσαρμοστούν. Τελικά, η διακυβέρνηση πρέπει να αντανακλά τον τρόπο με τον οποίο πραγματικά γίνεται η εργασία σήμερα: σε ένα υβριδικό εργατικό δυναμικό όπου και οι άνθρωποι και τα συστήματα Τεχνητής Νοημοσύνης λαμβάνουν αποφάσεις, έχουν πρόσβαση σε δεδομένα και εισάγουν κίνδυνο.
Η Living Security έχει επικεντρωθεί έντονα σε μοντέλα ασφάλειας που οδηγούνται από τη συμπεριφορά. Πώς μεταφράζεται αυτή η φιλοσοφία όταν κάποιες συμπεριφορές προέρχονται τώρα από συστήματα Τεχνητής Νοημοσύνης και όχι από ανθρώπους;
Η συμπεριφορική προσέγγιση της Living Security επεκτείνεται φυσικά στην Τεχνητή Νοημοσύνη, επειδή ο στόχος δεν ήταν ποτέ μόνο ποιος δημιουργεί κίνδυνο, αλλά πώς ο κίνδυνος εισάγεται μέσω ενεργειών. Είτε πρόκειται για ένα πρόσωπο είτε για ένα σύστημα Τεχνητής Νοημοσύνης, ο κίνδυνος εμφανίζεται στις συμπεριφορές, στην πρόσβαση δεδομένων, στις ενέργειες που λαμβάνονται και στις αποφάσεις που εκτελούνται μέσα στις ροές εργασίας. Όσο τα συστήματα Τεχνητής Νοημοσύνης αναλαμβάνουν περισσότερες λειτουργικές ευθύνες, το ίδιο μοντέλο εφαρμόζεται: οι οργανισμοί χρειάζονται ορατότητα σε αυτές τις συμπεριφορές, μαζί με την ικανότητα να οδηγούν και να παρεμβαίνουν σε πραγματικό χρόνο.
Αυτό οδήγησε στην ανάπτυξη του Livvy, της νοημοσύνης Τεχνητής Νοημοσύνης που τροφοδοτεί την πλατφόρμα της Living Security – εφαρμόζοντας προβλεπτική νοημοσύνη και συνεχής παρακολούθηση τόσο σε ανθρώπινη όσο και σε δραστηριότητα Τεχνητής Νοημοσύνης. Αντί να αντιμετωπίζουν την Τεχνητή Νοημοσύνη ως một ξεχωριστή πρόκληση, αυτό ermögίζει μια πιο ενοποιημένη προσέγγιση όπου η συμπεριφορά, ανθρώπινη ή μηχανική, μετράται, οδηγείται και διαχειρίζεται συνεχώς μέσα σε ένα ενιαίο μοντέλο κινδύνου εργατικού δυναμικού.
Πολλοί οργανισμοί εξακολουθούν να βασίζονται σε περιοδική εκπαίδευση ασφάλειας. Γιατί αυτό το μοντέλο καταρρέει σε σύγχρονα περιβάλλοντα, και τι μοιάζει μια πραγματικά προσαρμοστική, δεδομένων-οδηγούμενη προσέγγιση στην πράξη;
Η περιοδική εκπαίδευση ασφάλειας καταρρέει επειδή χτίστηκε για ένα στατικό τοπίο απειλών και υποθέτει ότι ο κίνδυνος μπορεί να μειωθεί μέσω ευρείας εκπαίδευσης. Στην πραγματικότητα, οι περισσότερες παραβιάσεις προέρχονται από καθημερινές λειτουργικές συμπεριφορές, όχι από έλλειψη εκπαίδευσης, και ο κίνδυνος είναι συχνά συγκεντρωμένος μεταξύ ενός μικρού υποσέτου χρηστών. Μια πιο προσαρμοστική, δεδομένων-οδηγούμενη προσέγγιση επικεντρώνεται στην συνεχής αναγνώριση του πού υπάρχει πραγματικά ο κίνδυνος και στην παροχή στοχευμένων, πραγματικού χρόνου οδηγιών στη ροή της εργασίας – μετατοπίζοντας από την ολοκλήρωση της εκπαίδευσης προς τη μετρήσιμη μείωση του κινδύνου.
Η πλατφόρμα σας τονίζει την ποσοτικοποίηση του ανθρώπινου κινδύνου χρησιμοποιώντας δεδομένα του πραγματικού κόσμου. Ποια είναι τα πιο σημαντικά σήματα που οι οργανισμοί πρέπει να παρακολουθούν σήμερα για να κατανοήσουν δυναμικά τον κίνδυνο αντί να τον αναλύουν αναδρομικά;
Οι οργανισμοί πρέπει να επικεντρωθούν στη συμπεριφορά, την ταυτότητα και την πρόσβαση, και την έκθεση σε απειλές, σήματα που αντανακλούν τον τρόπο με τον οποίο δημιουργείται ο κίνδυνος και όπου υπάρχει ο ανθρώπινος κίνδυνος. Αυτό ισχύει τώρα και για την Τεχνητή Νοημοσύνη, συμπεριλαμβανομένων των εργαλείων που χρησιμοποιούν οι εργαζόμενοι, της πρόσβασης που έχουν αυτά τα συστήματα και του πώς ρυθμίζονται ή προτρέπονται. Από μόνα τους, αυτά τα σήματα είναι χρήσιμα, αλλά η πραγματική αξία έρχεται από το πώς έρχονται μαζί για να πούνε μια ιστορία για τον κίνδυνο.
Για παράδειγμα, ένας CFO που έχει πρόσβαση σε οικονομικά συστήματα, δεν χρησιμοποιεί MFA, χρησιμοποιεί εργαλεία Τεχνητής Νοημοσύνης συνδεδεμένα με ευαίσθητα δεδομένα και στοχεύεται ενεργά από καμπάνιες phishing αντιπροσωπεύει ένα πολύ διαφορετικό επίπεδο κινδύνου από έναν BDR με περιορισμένη πρόσβαση και χαμηλότερη έκθεση. Ο κίνδυνος δεν είναι μόνο σε αυτό που κάποιος κάνει, αλλά σε αυτό που έχει πρόσβαση, στα συστήματα που ενεργούν για λογαριασμό του και σε πόσο συχνά στοχεύεται. Όταν μπορείτε να δείτε αυτούς τους παράγοντες μαζί, μπορείτε να κατανοήσετε πού είναι πιο πιθανό να συμβεί μια παραβίαση και να λάβετε μέτρα σε πραγματικό χρόνο, είτε ειδοποιώντας το άτομο, είτε στενεύοντας τους ελέγχους, είτε προωθώντας παρέμβαση για αυτή την ομάδα.
Η Τεχνητή Νοημοσύνη δημιουργεί νέες ευπάθειες, αλλά χρησιμοποιείται επίσης αμυντικά. Πού βλέπετε την ισορροπία να μετατοπίζεται, και πηγαίνουμε προς μια καθαρή θετική ή αρνητική επίδραση ασφάλειας από την Τεχνητή Νοημοσύνη;
Η Τεχνητή Νοημοσύνη κάνει και τα δύο, επεκτείνοντας την επιφάνεια επίθεσης ενώ βελτιώνει επίσης τον τρόπο με τον οποίο οι οργανισμοί ανιχνεύουν και αντιδρούν στον κίνδυνο. Από τη μια πλευρά, ermögίζει πιο σύνθετες ροές εργασίας και αυτόνομες ενέργειες που μπορούν να εισάγουν νέες ευπάθειες. Από την άλλη πλευρά, позволяет τις ομάδες ασφάλειας να αναλύουν τη συμπεριφορά σε κλίμακα και να ενεργούν πιο γρήγορα. Πού η ισορροπία καταλήγει зависит από το πώς οι οργανισμοί προσαρμόζονται. Για τώρα, πολλοί εξακολουθούν να πιάνονται με την ορατότητα και τη διακυβέρνηση, ιδιαίτερα καθώς η Τεχνητή Νοημοσύνη χρησιμοποιείται με τρόπους που δεν έχουν πλήρως χαρτογραφηθεί. Μακροπρόθεσμα, μπορεί να είναι καθαρή θετική, αλλά μόνο αν οι οργανισμοί αντιμετωπίζουν την Τεχνητή Νοημοσύνη ως μέρος του εργατικού δυναμικού και εφαρμόζουν το ίδιο επίπεδο παρακολούθησης, οδηγίας και ελέγχου όπως και για τον ανθρώπινο κίνδυνο.
Δεν όλες οι εργαζόμενοι ή τα συστήματα Τεχνητής Νοημοσύνης αντιπροσωπεύουν ίσο κίνδυνο. Πώς πρέπει οι οργανισμοί να προτεραιοποιήσουν την παρέμβαση χωρίς να δημιουργούν τριβή ή υπερ-επίβλεψη;
Δεν όλος ο κίνδυνος είναι ίσος, και το να τον αντιμετωπίζουν με τον ίδιο τρόπο είναι αυτό που δημιουργεί τριβή. Το κλειδί είναι να επικεντρωθούν στο πού είναι πραγματικά συγκεντρωμένος ο κίνδυνος -既然 περίπου 10% των χρηστών οδηγούν 73% του κινδύνου – και να εφαρμόσουν στοχευμένες παρεμβάσεις εκεί αντί να τις εφαρμόζουν ευρέως σε όλο το εργατικό δυναμικό. Αυτό σημαίνει να χρησιμοποιούν δεδομένα συμπεριφοράς, πρόσβασης και έκθεσης για να προτεραιοποιήσουν ποιος και τι χρειάζεται προσοχή, και να παρέχουν οδηγίες στη ροή της εργασίας αντί να προσθέτουν περισσότερους ελέγχους. Κάνετε το σωστά, μειώνει την τριβή membuat την ασφαλή διαδρομή την πιο εύκολη να ακολουθηθεί, αντί να αυξάνει την επίβλεψη σε όλους.
Εάν προωθήσουμε ταχύτατα πέντε χρόνια, τι θα μοιάζει η ασφάλεια του εργατικού δυναμικού, και τι είναι αυτό που οι περισσότεροι οργανισμοί ακόμη υποτιμούν σήμερα;
Εάν προωθήσουμε ταχύτατα πέντε χρόνια, η ασφάλεια του εργατικού δυναμικού θα ορίζεται από το πώς οι οργανισμοί μπορούν να κατανοήσουν και να διαχειριστούν τον κίνδυνο σε ανθρώπους και πράκτορες Τεχνητής Νοημοσύνης που λειτουργούν μαζί. Δεν θα είναι πλέον για περιοδική εκπαίδευση ή στατικούς ελέγχους, αλλά για συνεχής ορατότητα, αξιολόγηση κινδύνου σε πραγματικό χρόνο και την ικανότητα να λαμβάνουν δράση δυναμικά καθώς η συμπεριφορά, η πρόσβαση και οι απειλές αλλάζουν. Οι άνθρωποι θα παραμείνουν στο κέντρο, αλλά θα διαχειρίζονται και θα επεκτείνουν τον εαυτό τους μέσω της Τεχνητής Νοημοσύνης, που σημαίνει ότι η ασφάλεια πρέπει να λάβει υπόψη και τους δύο.
Τι είναι αυτό που οι περισσότεροι οργανισμοί υποτιμούν είναι ότι υπάρχει ήδη ένα κενό ορατότητας στον ανθρώπινο κίνδυνο σήμερα, και η Τεχνητή Νοημοσύνη το ενισχύει. Πολλοί πιστεύουν ότι έχουν μια στρατηγική Τεχνητής Νοημοσύνης, αλλά στην πραγματικότητα, τους λείπει η ορατότητα και για τους ανθρώπους και για τα εργαλεία που χρησιμοποιούν αυτοί οι άνθρωποι. Το βήμα ένα είναι να κατανοήσουν τον ανθρώπινο κίνδυνο, τη συμπεριφορά, την πρόσβαση και την έκθεση σε απειλές. Το βήμα δύο είναι να επεκτείνουν αυτή την ορατότητα στους πράκτορες Τεχνητής Νοημοσύνης που χρησιμοποιούν οι εργαζόμενοι, οι οποίοι είναι τόσο ισχυροί και επικίνδυνοι όσο η πρόσβαση και οι αποφάσεις που τους δίνονται από τους ανθρώπους. Χωρίς αυτή τη βάση, οι οργανισμοί δεν είναι μόνο πίσω στην Τεχνητή Νοημοσύνη, αλλά λειτουργούν με αυξανόμενα τυφλά σημεία σε όλο το εργατικό τους δυναμικό.
Ευχαριστούμε για τη μεγάλη συνέντευξη. Οι αναγνώστες που επιθυμούν να μάθουν περισσότερα πρέπει να επισκεφθούν Living Security.












