Connect with us

Wawancara

Jonathan Mortensen, Pendiri dan CEO Confident Security – Seri Wawancara

mm

Jonathan Mortensen, Pendiri dan CEO Confident Security, saat ini memimpin pengembangan sistem AI yang dapat dibuktikan privasinya untuk industri dengan persyaratan keamanan dan kepatuhan yang ketat. Ia juga menjabat sebagai Founder Fellow di South Park Commons, di mana ia mengeksplorasi masa depan komputasi AI, memori, privasi, dan kepemilikan. Sebelum meluncurkan Confident Security, ia adalah Staff Software Engineer di Databricks, mengintegrasikan teknologi bit.io ke dalam platform data dengan fokus pada keamanan multi-penyewa, IAM/ACLs, isolasi VPC, enkripsi, dan kepemilikan data. Sebelumnya, ia mendirikan dan menjabat sebagai CTO di bit.io, membangun layanan serverless PostgreSQL multi-awan, multi-wilayah yang mendukung ratusan ribu basis data yang aman dan kemudian diakuisisi oleh Databricks.

Confident Security membangun infrastruktur yang memungkinkan perusahaan untuk menjalankan alur kerja AI tanpa mengungkapkan informasi sensitif. Platformnya dirancang sehingga prompt, data, dan output model tetap sepenuhnya pribadi, tidak pernah dicatat, dan tidak pernah digunakan kembali, memberikan organisasi cara yang aman untuk mengadopsi AI sambil memenuhi standar kepatuhan dan peraturan yang ketat.

Anda mendirikan Confident Security pada 2024 setelah membangun bit.io dan bekerja di Databricks. Apa yang memicu kesadaran bahwa AI memerlukan pendekatan yang berbeda secara fundamental terhadap privasi?

Pengalaman saya membangun infrastruktur data mengajarkan saya ini: jika orang memasukkan informasi sensitif ke dalam sistem, kepercayaan tidak cukup. Mereka memerlukan bukti. Kami membangun infrastruktur di mana pelanggan memiliki data mereka, dan kami memberi mereka cara untuk memverifikasi itu.

Ketika saya melihat bagaimana perusahaan menggunakan LLM, bukti itu tidak ada. Karyawan menempelkan kode sumber, dokumen hukum, dan catatan pasien ke dalam model yang dijalankan oleh pihak ketiga yang tidak dapat diverifikasi. Kami sudah melihat percakapan pribadi yang tidak sengaja diindeks secara online dan perubahan kebijakan yang tiba-tiba membuat percakapan menjadi data pelatihan secara default. Ini menunjukkan betapa rapuhnya model privasi saat ini.

Jika AI akan menangani informasi paling sensitif di dunia, kita memerlukan jaminan yang tidak bergantung pada janji internal vendor. Itulah yang mendorong saya untuk memulai Confident Security.

OpenPCC digambarkan sebagai “Signal untuk AI.” Mengapa lapisan privasi ini harus terbuka, dapat diverifikasi, dan interoperabel sejak hari pertama?

Enkripsi ujung-ke-ujung tidak populer sampai menjadi standar yang dapat diadopsi oleh semua orang. Kami ingin hal yang sama untuk privasi AI. Jika hanya beberapa perusahaan dapat menawarkan jaminan nyata, maka privasi tidak akan berkembang.

OpenPCC adalah open source di bawah Apache 2.0, sehingga siapa pun dapat membangun atau memeriksa. Tidak ada persyaratan kepercayaan rahasia. Attestasi perangkat keras memberikan bukti kriptografis tentang apa yang dijalankan dan di mana. Dan kami memastikan itu berfungsi di mana saja: awan mana pun, penyedia model mana pun, tumpukan pengembang mana pun.

Ada nilai besar dalam lantai privasi yang konsisten dan universal. Jika Anda menggunakan OpenPCC, Anda tahu data Anda tidak terlihat oleh penyedia model, regulator, atau bahkan kami. Standar hanya berfungsi jika seluruh ekosistem dapat berpartisipasi, sehingga kami merancangnya untuk menjadi seinklusif mungkin sejak hari pertama.

Sebelum Confident Security, Anda membangun sistem skala besar untuk multi-penyewa, enkripsi, dan kepemilikan data. Bagaimana pengalaman itu membentuk arsitektur OpenPCC?

Sistem itu memperkuat dua kebenaran: jika sistem dapat menyimpan data, akhirnya akan, baik melalui log, konfigurasi yang salah, atau permintaan hukum. Dan kepercayaan bukanlah model privasi. Pengguna memerlukan visibilitas dan kontrol.

OpenPCC berjalan dalam mode tanpa status sehingga prompt menghilang setelah diproses. Attestasi memungkinkan pengguna untuk memverifikasi di mana data mereka pergi dan apa kode yang dijalankan. Dan dengan memisahkan kontrol dari data, OpenPCC mencegah input pribadi dari pernah diobati sebagai instruksi yang dapat dieksekusi.

Kendala itu adalah apa yang perusahaan telah tunggu: jaminan bahwa data tidak akan muncul kembali di tempat yang tidak terduga.

Anda telah berargumen bahwa sebagian besar solusi “AI pribadi” bergantung pada kepercayaan terhadap sistem yang tidak transparan. Mengapa verifikasi independen sangat penting untuk privasi yang sebenarnya?

Sebagian besar bahasa privasi saat ini secara efektif “percayalah saja kepada kami.” Itu tidak cukup ketika taruhan termasuk keamanan nasional dan data kesehatan yang diatur. Jika pengguna tidak dapat memverifikasi klaim, itu bukan jaminan – itu pemasaran.

Privasi yang dapat diverifikasi berbeda. Anda tidak mempercayai niat operator. Anda memverifikasi perangkat keras, gambar perangkat lunak, dan jaminan penanganan data. Kriptografi memaksakan batasan. Log tidak ada untuk seseorang untuk tidak sengaja bocorkan atau ajukan permintaan pengadilan.

Ketika privasi dapat diaudit oleh pengguna, Anda menciptakan sistem yang secara fundamental lebih aman. Itu adalah akuntabilitas yang berakar pada matematika.

Pengumuman “AI Pribadi” Google datang tak lama setelah OpenPCC. Anda secara terbuka menantang mereka untuk menyediakan TPU untuk pengujian independen. Apa yang memicu panggilan itu, dan apa yang Anda harapkan untuk menemukan?

Untuk mengklaim jaminan privasi, Anda harus membiarkan komunitas memverifikasi. NVIDIA sudah memungkinkan verifikasi eksternal pada GPU H100, dan kami bahkan membuka sumber versi Go dari perpustakaan attestasi mereka untuk mendorong adopsi.

Jika Google ingin membuat janji serupa pada TPU, kami harus dapat mengukur dan memverifikasi janji itu, bukan hanya membacanya dalam posting blog. Kami akan mencari kontrol yang sama yang kami harapkan dari sistem privasi: batasan retensi data yang ketat, attestasi yang dapat diaudit, dan tidak ada jalur rahasia di mana log atau telemetri melarikan diri. Klaim privasi perlu bertahan dari pemeriksaan.

Bagi pembaca yang tidak terbiasa dengan mekanisme, apa yang membuat saluran OpenPCC yang sepenuhnya terenkripsi berbeda dari enkripsi sisi klien tradisional atau komputasi yang dapat dipercaya?

Enkripsi sisi klien melindungi data di jalan, dan komputasi yang dapat dipercaya melindunginya saat diproses, tetapi masih ada celah sebelum dan sesudah di mana operator atau penyerang dapat mengakses informasi sensitif.

OpenPCC menutup celah itu. Ini menciptakan jalur ujung-ke-ujung yang tertutup antara klien dan model yang melindungi prompt, respons, identitas pengguna, dan bahkan metadata atau sinyal waktu yang dapat mengungkapkan niat secara diam-diam. Operator tidak dapat mendekripsi apa pun. Tidak ada yang dicatat atau disimpan, bahkan dalam kondisi pelanggaran.

Privasi tidak harus bergantung pada harapan bahwa penyedia melakukan hal yang benar di balik layar. Ini perlu ditegakkan secara kriptografis.

Bagaimana privasi yang dapat diverifikasi mengubah persamaan untuk industri yang diatur seperti keuangan, kesehatan, dan pertahanan?

Industri yang diatur memiliki yang paling untuk diperoleh dari AI, tetapi juga yang paling untuk hilang jika sesuatu bocor. Saat ini, 78% karyawan menempelkan data internal ke dalam alat AI, dan satu dari lima kasus termasuk informasi yang diatur seperti PHI atau PCI. Paparan sudah terjadi.

Privasi yang dapat diverifikasi menghilangkan penghalang terbesar. Prompt sensitif tidak pernah ada dalam teks biasa di dalam lingkungan penyedia model. Tidak ada yang dapat digunakan untuk pelatihan. Bahkan permintaan hukum tidak dapat mengakses apa yang sistem itu sendiri tidak dapat lihat.

Tim risiko dan kepatuhan akhirnya memiliki jalur di mana “ya” menjadi default bukan “tidak.”

Apa tantangan teknik terbesar dalam merancang lapisan privasi yang acak yang berfungsi di seluruh tumpukan perusahaan?

Komputasi yang dapat dipercaya dan attestasi jarak jauh masih dalam masa bayi, menurut pendapat saya. Setiap penyedia awan dan penyedia logam telanjang melakukan sesuatu yang sedikit berbeda. Beberapa penyedia, seperti AWS, tidak memiliki perangkat keras yang diperlukan untuk melakukannya. Jadi, setiap fitur yang kami tambahkan seperti 1000 sayatan dan berjalan di atas kawat. Tetapi tujuan utama adalah menjadi standar terbuka, sehingga kami perlu melakukannya sehingga berfungsi untuk platform apa pun. Ini open source sehingga saya mendorong orang untuk menambahkan platform dan konfigurasi yang didukung!

Apa yang terlihat seperti dunia dengan enkripsi verifikasi default, dan bagaimana itu dapat mengubah keseimbangan kekuatan antara perusahaan, penyedia awan, dan penyedia model?

Perusahaan mempertahankan kontrol atas aset paling berharga mereka: data mereka. Penyedia model bersaing dalam kinerja dan biaya daripada siapa yang dapat mengumpulkan informasi propietary terbanyak. Awan memungkinkan privasi bukan hanya diam-diam mengamati.

Itu adalah keseimbangan kekuatan yang lebih sehat. Dan seluruh ekosistem memenangkan ketika keamanan dibangun ke dalam fondasi bukan hanya ditambal di atas.

Di masa depan di mana AI menjadi sangat umum dan sangat diatur, bagaimana Anda melihat privasi yang dapat diverifikasi mengubah lanskap kompetitif untuk perusahaan, penyedia awan, dan pengembang model?

Regulator sudah mempertanyakan bagaimana data pengguna disimpan dan digunakan. Privasi berbasis kepercayaan tidak akan memuaskan mereka untuk waktu yang lama. Pengguna akan mengharapkan jaminan privasi dengan cara mereka mengharapkan enkripsi dalam aplikasi pesan hari ini.

Pemenangnya akan menjadi perusahaan yang tidak meminta pengguna untuk mengompromi. Jika Anda dapat membuktikan privasi, Anda mendapatkan kepercayaan organisasi yang memiliki data paling berharga di dunia. Data menjadi dapat digunakan di tempat-tempat yang telah dikunci.

Terima kasih atas wawancara yang luar biasa, pembaca yang ingin mempelajari lebih lanjut harus mengunjungi Confident Security.

Antoine adalah seorang pemimpin visioner dan mitra pendiri Unite.AI, didorong oleh semangat yang tak tergoyahkan untuk membentuk dan mempromosikan masa depan AI dan robotika. Seorang wirausaha serial, ia percaya bahwa AI akan sama-sama mengganggu masyarakat seperti listrik, dan sering tertangkap berbicara tentang potensi teknologi mengganggu dan AGI.

As a futurist, ia berdedikasi untuk mengeksplorasi bagaimana inovasi ini akan membentuk dunia kita. Selain itu, ia adalah pendiri Securities.io, sebuah platform yang fokus pada investasi di teknologi-teknologi canggih yang mendefinisikan kembali masa depan dan membentuk kembali seluruh sektor.