Connect with us

Jonathan Mortensen, Ιδρυτής και Διευθύνων Σύμβουλος της Confident Security – Σειρά Συνεντεύξεων

Συνεντεύξεις

Jonathan Mortensen, Ιδρυτής και Διευθύνων Σύμβουλος της Confident Security – Σειρά Συνεντεύξεων

mm

Jonathan Mortensen, Ιδρυτής και Διευθύνων Σύμβουλος της Confident Security, ηγείται目前 της ανάπτυξης προβαλλόμενων ιδιωτικών συστημάτων AI για βιομηχανίες με αυστηρές απαιτήσεις ασφαλείας και συμμόρφωσης. Επίσης, υπηρετεί ως Ιδρυτής Συντρόφου στο South Park Commons, όπου εξερευνά το μέλλον του AI υπολογισμού, μνήμης, ιδιωτικότητας και ιδιοκτησίας. Πριν από την εκκίνηση της Confident Security, ήταν Μηχανικός Λογισμικού στο Databricks, ενσωματώνοντας την τεχνολογία του bit.io στο πλαίσιο δεδομένων με έμφαση στην ασφάλεια πολλαπλών ενοικιαστών, IAM/ACLs, απομόνωση VPC, κρυπτογράφηση και ιδιοκτησία δεδομένων. Νωρίτερα, ίδρυσε και υπηρέτησε ως Διευθύνων Σύμβουλος της bit.io, κατασκευάζοντας μια υπηρεσία multi-cloud, multi-region serverless PostgreSQL που υποστήριζε εκατοντάδες χιλιάδες ασφαλείς βάσεις δεδομένων και αργότερα αγοράστηκε από την Databricks.

Confident Security κατασκευάζει υποδομή που επιτρέπει στις επιχειρήσεις να εκτελούν εργοflows AI χωρίς να εκθέτουν ευαίσθητες πληροφορίες. Η πλατφόρμα της σχεδιάζεται έτσι ώστε οι προτροπές, τα δεδομένα και οι έξοδοι του μοντέλου να παραμείνουν πλήρως ιδιωτικά, να μην καταγράφονται ποτέ και να μην ξαναχρησιμοποιούνται, δίνοντας στις οργανώσεις έναν ασφαλή τρόπο για την υιοθέτηση του AI ενώ πληρούν αυστηρές κανονιστικές και προτύπων συμμόρφωσης.

Ιδρύσατε την Confident Security το 2024 μετά την κατασκευή bit.io και την εργασία σας στο Databricks. Τι σας έκανε να συνειδητοποιήσετε ότι το AI χρειάζεται μια θεμελιωδώς διαφορετική προσέγγιση στην ιδιωτικότητα;

Η εμπειρία μου στην κατασκευή υποδομής δεδομένων με δίδαξε αυτό: αν οι άνθρωποι τοποθετούν ευαίσθητες πληροφορίες σε ένα σύστημα, η εμπιστοσύνη δεν είναι αρκετή. Χρειάζονται απόδειξη. Κατασκευάσαμε υποδομή όπου οι πελάτες κατέχουν τα δεδομένα τους και τους δώσαμε τρόπους να επικυρώσουν这一點.

Όταν έβλεπα πώς οι εταιρείες χρησιμοποιούσαν LLMs, αυτή η απόδειξη δεν υπήρχε. Οι υπάλληλοι επικόλληναν κώδικα πηγής, νομικά έγγραφα και ιατρικά αρχεία σε μοντέλα που εκτελούνταν από τρίτους που δεν μπορούσαν να επαληθεύσουν. Έχουμε ήδη δει ιδιωτικές συζητήσεις που τυχαία ευρεθήκαν στο διαδίκτυο και αλλαγές πολιτικής πουuddenly έκαναν τις συνομιλίες δεδομένα εκπαίδευσης από προεπιλογή. Έδειξε πώς είναι εύθραυστο το τρέχον μοντέλο ιδιωτικότητας.

Αν το AI θα χειριστεί τις πιο ευαίσθητες πληροφορίες του κόσμου, χρειαζόμαστε εγγυήσεις που δεν εξαρτώνται από την εμπιστοσύνη στις εσωτερικές υποσχέσεις ενός προμηθευτή. Αυτό με οδήγησε να ξεκινήσω την Confident Security.

Το OpenPCC περιγράφεται ως το “Signal για το AI.” Γιατί ήταν σημαντικό αυτό το επίπεδο ιδιωτικότητας να είναι ανοιχτό, επικυρώσιμο και διαλειτουργικό από την πρώτη ημέρα;

Η κρυπτογράφηση από άκρο σε άκρο δεν έγινε δημοφιλής μέχρι να γίνει ένα πρότυπο που όλοι μπορούσαν να υιοθετήσουν. Θέλουμε το ίδιο πράγμα για την ιδιωτικότητα του AI. Αν μόνο quelques εταιρείες μπορούν να προσφέρουν πραγματικές εγγυήσεις, τότε η ιδιωτικότητα δεν θα κλιμακωθεί.

Το OpenPCC είναι ανοιχτό λογισμικό υπό Apache 2.0, ώστε όποιος μπορεί να κατασκευάσει επάνω του ή να το εξετάσει. Δεν υπάρχει μυστική απαίτηση εμπιστοσύνης. Η απόδειξη υλικού παρέχει κρυπτογραφική απόδειξη σχετικά με αυτό που εκτελείται και όπου. Και βεβαιωθήκαμε ότι λειτουργεί οπουδήποτε: οποιοδήποτε cloud, οποιοδήποτε παρόχης μοντέλου, οποιαδήποτε στοίβα αναπτυξιακού.

Υπάρχει τεράστια αξία σε ένα δάπεδο ιδιωτικότητας που είναι συνεπές και καθολικό. Αν χρησιμοποιείτε το OpenPCC, γνωρίζετε ότι τα δεδομένα σας δεν είναι ορατά στους παρόχους μοντέλων, τους ρυθμιστές ή ακόμη και εμάς. Ένα πρότυπο λειτουργεί μόνο αν όλος ο οικοςистемικός可以 συμμετάσχει, ώστε να το σχεδιάσαμε να είναι όσο το δυνατόν πιο περιεκτικό από την πρώτη ημέρα.

Πριν από την Confident Security, κατασκευάσατε μεγάλης κλίμακας συστήματα για πολλαπλή ενοικίαση, κρυπτογράφηση και ιδιοκτησία δεδομένων. Πώς αυτές οι εμπειρίες διαμόρφωσαν την αρχιτεκτονική του OpenPCC;

Αυτά τα συστήματα ενίσχυσαν δύο αλήθειες: αν ένα σύστημα μπορεί να διατηρήσει δεδομένα, τελικά θα το κάνει, είτε αυτό είναι μέσω καταγραφών, λανθασμένων ρυθμίσεων ή νομικών αιτημάτων. Και η εμπιστοσύνη δεν είναι ένα μοντέλο ιδιωτικότητας. Οι χρήστες χρειάζονται ορατότητα και έλεγχο.

Το OpenPCC εκτελείται σε μια κατάσταση χωρίς κατάσταση, ώστε οι προτροπές να εξαφανίζονται μετά την επεξεργασία. Η απόδειξη επιτρέπει στους χρήστες να επικυρώσουν πού πηγαίνουν τα δεδομένα τους και ποιο κώδικας εκτελείται. Και με την απομόνωση του ελέγχου από τα δεδομένα, το OpenPCC αποτρέπει τις ιδιωτικές εισόδους από το να αντιμετωπίζονται ως εκτελέσιμες εντολές.

Αυτές οι περιορισμοί είναι αυτά που οι επιχειρήσεις έχουν περιμένει: εγγυήσεις ότι τα δεδομένα δεν θα επανεμφανιστούν κάπου απροσδόκητα.

Έχετε υποστηρίξει ότι οι περισσότερες “ιδιωτικές λύσεις AI” βασίζονται στην εμπιστοσύνη σε αδιαφανείς συστήματα. Γιατί η ανεξάρτητη επαλήθευση είναι απαραίτητη για την αληθινή ιδιωτικότητα;

Οι περισσότερες γλώσσες ιδιωτικότητας σήμερα είναι αποτελεσματικά “απλά εμπιστεύστε μας”. Αυτό δεν είναι αρκετό όταν οι στοίχοι περιλαμβάνουν την εθνική ασφάλεια και τα δεδομένα υγείας που ρυθμίζονται. Αν ο χρήστης δεν μπορεί να επικυρώσει την αξίωση, δεν είναι εγγύηση – είναι μάρκετινγκ.

Η επικυρώσιμη ιδιωτικότητα είναι διαφορετική. Δεν εμπιστεύεστε τις προθέσεις του χειριστή. Επικυρώνετε το υλικό, την εικόνα λογισμικού και τις εγγυήσεις χειρισμού δεδομένων. Η κρυπτογράφηση επιβάλλει τα όρια.

Όταν η ιδιωτικότητα είναι δυνατό να ελεγχθεί από τον χρήστη, δημιουργείτε ένα θεμελιωδώς ασφαλέστερο σύστημα. Είναι ευθύνη που βασίζεται στα μαθηματικά.

Η ανακοίνωση “Ιδιωτικό AI” της Google ήρθε λίγο μετά το OpenPCC. Δημοσίευσα μια πρόκληση να παρέχουν ένα TPU για ανεξάρτητο έλεγχο. Τι σας οδήγησε σε αυτή την πρόκληση και τι θα περιμένατε να βρείτε;

Για να ισχυριστούν εγγυήσεις ιδιωτικότητας, πρέπει να αφήσουν την κοινότητα να τις επικυρώσει. Η NVIDIA ήδη επιτρέπει την εξωτερική επαλήθευση στα H100 GPUs της, και ακόμη και ανοιχτόκωδικε τον κώδικα Go της βιβλιοθήκης απόδειξης για να ενθαρρύνουμε την υιοθέτηση.

Αν η Google θέλει να κάνει παρόμοιες υποσχέσεις στα TPUs, πρέπει να μπορούμε να μετρήσουμε και να επικυρώσουμε αυτές τις υποσχέσεις, όχι απλά να τις διαβάσουμε σε ένα blog post. Θα ψάχναμε για τους ίδιους ελέγχους που περιμένουμε από οποιοδήποτε σύστημα ιδιωτικότητας: αυστηρά όρια διατήρησης δεδομένων, επικυρώσιμη απόδειξη και keine κρυφές διαδρομές όπου οι καταγραφές ή η τηλεμετρία διαφεύγουν. Οι αξίωσεις ιδιωτικότητας χρειάζονται να επιβιώσουν της σκληρής κριτικής.

Για τους αναγνώστες που δεν είναι εξοικειωμένοι με τις μηχανικές, τι κάνει τους πλήρως κρυπτογραφημένους καναles του OpenPCC διαφορετικούς από την παραδοσιακή κρυπτογράφηση πλευράς πελάτη ή την εμπιστευτική επεξεργασία;

Η κρυπτογράφηση πλευράς πελάτη προστατεύει τα δεδομένα στο δρόμο, και η εμπιστευτική επεξεργασία τα προστατεύει ενώ επεξεργάζονται, αλλά υπάρχουν ακόμη κενά πριν και μετά όπου οι χειριστές ή οι επιτιθέμενοι μπορούν να προσεγγίσουν ευαίσθητες πληροφορίες.

Το OpenPCC κλείνει αυτά τα κενά. Δημιουργεί μια σφραγισμένη ολοκληρωμένη διαδρομή μεταξύ του πελάτη και του μοντέλου που προστατεύει την προτροπή, την απόκριση, την ταυτότητα του χρήστη και ακόμη και μεταδεδομένα ή σήματα χρονισμού που μπορούν να αποκαλύψουν ήσυχα την πρόθεση. Οι χειριστές δεν μπορούν να αποκρυπτογραφήσουν τίποτα. Τίποτα δεν καταγράφεται ή διατηρείται, ακόμη και υπό συνθήκες παραβίασης.

Η ιδιωτικότητα δεν πρέπει να εξαρτάται από την ελπίδα ότι ο παρόχης κάνει το σωστό πράγμα πίσω από τις κulis. Πρέπει να επιβληθεί κρυπτογραφικά.

Πώς αλλάζει η επικυρώσιμη ιδιωτικότητα την εξίσωση για τις ρυθμιζόμενες βιομηχανίες όπως η finance, η υγεία και η άμυνα;

Οι ρυθμιζόμενες βιομηχανίες έχουν το περισσότερο να κερδίσουν από το AI, αλλά και το περισσότερο να χάσουν αν κάτι διαρρεύσει. Σήμερα, το 78% των υπαλλήλων επικόλλουν εσωτερικά δεδομένα σε εργαλεία AI, και μία στις πέντε περιπτώσεις περιλαμβάνει ρυθμιζόμενη πληροφορία όπως PHI ή PCI. Η έκθεση ήδη συμβαίνει.

Η επικυρώσιμη ιδιωτικότητα αφαιρεί τον μεγαλύτερο εμπόδιο. Οι ευαίσθητες προτροπές δεν υπάρχουν σε κείμενο μοντέλου σε περιβάλλον παρόχου. Τίποτα δεν μπορεί να χρησιμοποιηθεί για εκπαίδευση. Ακόμη και νόμιμες αιτήσεις δεν μπορούν να προσεγγίσουν αυτό που το σύστημα selbst δεν μπορεί να δει.

Οι ομάδες κινδύνου και συμμόρφωσης έχουν τελικά einen δρόμο όπου “ναι” γίνεται η προεπιλογή αντί για “όχι”.

Ποια ήταν τα μεγαλύτερα προκλήματα μηχανικής στην σχεδίαση ενός επιπέδου ιδιωτικότητας που είναι αδιάκριτο cloud και λειτουργεί σε οποιαδήποτε επιχειρηματική στοίβα;

Η εμπιστευτική επεξεργασία και η απόδειξη απομακρυσμένης είναι ακόμη στην παιδική ηλικία, κατά τη γνώμη μου. Κάθε παρόχης cloud και παρόχης bare metal κάνει κάτι ελαφρώς διαφορετικό. Ορισμένοι παρόχοι, όπως η AWS, δεν έχουν ακόμη το υλικό που χρειάζεται για να το κάνουν. Έτσι, κάθε χαρακτηριστικό που προσθέτουμε είναι σαν 1000 κοψίματα και περπάτημα σε ένα σχοινί. Αλλά ολόκληρος ο σκοπός είναι να γίνει ένα ανοιχτό πρότυπο, ώστε να πρέπει να το κάνουμε ώστε να λειτουργεί για οποιοδήποτε cloud. Είναι ανοιχτό λογισμικό, ώστε να ενθαρρύνω τους ανθρώπους να προσθέσουν ακόμη περισσότερες υποστηριζόμενες πλατφόρμες και ρυθμίσεις!

Τι είναι ένας κόσμος με προεπιλεγμένη επικυρώσιμη κρυπτογράφηση και πώς μπορεί να αναμορφώσει την ισορροπία της δύναμης μεταξύ επιχειρήσεων, παρόχων cloud και παρόχων μοντέλων;

Οι επιχειρήσεις διατηρούν τον έλεγχο του πιο πολύτιμου περιουσιακού τους στοιχείου: τα δεδομένα τους. Οι παρόχοι μοντέλων ανταγωνίζονται σε απόδοση και κόστος αντί για ποιος μπορεί να συσσωρευσει τις περισσότερες ιδιοκτητικές πληροφορίες. Τα clouds ενεργοποιούν την ιδιωτικότητα αντί να είναι σιωπηλοί παρατηρητές της.

Είναι μια υγεστέρης ισορροπία της δύναμης. Και όλη η οικοςистемική κερδίζει όταν η ασφάλεια χτίζεται στην βάση αντί να επιθεωρείται στην κορυφή.

Σε ένα μέλλον όπου το AI γίνεται πανταχού παρόν και ρυθμιζόμενο, πώς βλέπετε την επικυρώσιμη ιδιωτικότητα να αναμορφώνει το ανταγωνιστικό τοπίο για τις επιχειρήσεις, τους παρόχους cloud και τους αναπτυξιακούς μοντέλων;

Οι ρυθμιστές ήδη αμφισβητούν πώς αποθηκεύονται και χρησιμοποιούνται τα δεδομένα των χρηστών. Η εμπιστοσύνη-βασισμένη ιδιωτικότητα δεν θα ικανοποιήσει για πολύ. Οι χρήστες θα περιμένουν εγγυήσεις ιδιωτικότητας τον τρόπο που περιμένουν κρυπτογράφηση σε εφαρμογές αγγελιών σήμερα.

Οι νικητές θα είναι οι εταιρείες που δεν ζητούν από τους χρήστες να συμβιβαστούν. Αν μπορείτε να αποδείξετε την ιδιωτικότητα, κερδίζετε την εμπιστοσύνη των οργανισμών που έχουν τα πιο πολύτιμα δεδομένα στον κόσμο. Τα δεδομένα γίνονται χρησιμοποίητα σε μέρη όπου έχουν κλειδωθεί.

Ευχαριστώ για τη μεγάλη συνέντευξη, οι αναγνώστες που θέλουν να μάθουν περισσότερα πρέπει να επισκεφθούν Confident Security.

Ο Antoine είναι ένας οραματιστής ηγέτης και συνιδρυτής του Unite.AI, οδηγείται από μια αμετάβλητη страсть για το σχήμα και την προώθηση του μέλλοντος του AI και της ρομποτικής. Ένας σειριακός επιχειρηματίας, πιστεύει ότι το AI θα είναι τόσο διαταρακτικό για την κοινωνία όσο η ηλεκτρική ενέργεια, και συχνά πιάνεται να μιλάει για το δυναμικό των διαταρακτικών τεχνολογιών και του AGI.

Ως futurist, είναι αφοσιωμένος στο να εξερευνήσει πώς αυτές οι καινοτομίες θα σχήματίσουν τον κόσμο μας. Επιπλέον, είναι ο ιδρυτής του Securities.io, μια πλατφόρμα που επικεντρώνεται στις επενδύσεις σε τεχνολογίες που αναedefinουν το μέλλον και ανασχήματίσουν ολόκληρους τομείς.