Connect with us

Wawancara

Yotam Oren, CEO & Cofounder of Mona Labs – Interview Series

mm

Yotam Oren, adalah CEO & Cofounder of Mona Labs, sebuah platform yang memungkinkan perusahaan untuk mengubah inisiatif AI dari eksperimen laboratorium menjadi operasi bisnis yang dapat diskalakan dengan benar-benar memahami bagaimana model ML berperilaku dalam proses bisnis dan aplikasi yang sebenarnya.

Mona secara otomatis menganalisis perilaku model pembelajaran mesin Anda di seluruh segmen data yang dilindungi dan dalam konteks fungsi bisnis, untuk mendeteksi potensi bias AI. Mona menawarkan kemampuan untuk menghasilkan laporan kesetaraan yang lengkap yang memenuhi standar dan peraturan industri, dan menawarkan kepercayaan bahwa aplikasi AI mematuhi dan bebas dari bias.

Apa yang awalnya menarik Anda ke ilmu komputer?

Ilmu komputer adalah jalur karir yang populer di keluarga saya, sehingga itu selalu ada di pikiran saya sebagai pilihan yang layak. Tentu saja, budaya Israel sangat pro-teknologi. Kami merayakan inovator teknologi dan saya selalu memiliki persepsi bahwa CS akan menawarkan saya landasan untuk pertumbuhan dan pencapaian.

Meskipun demikian, itu hanya menjadi passion pribadi ketika saya mencapai usia universitas. Saya tidak salah satu anak-anak yang mulai mengkode di sekolah menengah. Di masa mudaku, saya terlalu sibuk bermain basket untuk memperhatikan komputer. Setelah sekolah menengah, saya menghabiskan sekitar 5 tahun di militer, dalam peran kepemimpinan operasional/kombat. Jadi, dengan cara tertentu, saya benar-benar hanya mulai belajar tentang ilmu komputer lebih ketika saya perlu memilih jurusan akademik di universitas. Apa yang menarik perhatian saya segera adalah bahwa ilmu komputer menggabungkan pemecahan masalah dan pembelajaran bahasa (atau bahasa). Dua hal yang saya minati. Dari saat itu, saya terikat.

Dari 2006 hingga 2008 Anda bekerja pada pemetaan dan navigasi untuk sebuah perusahaan rintisan, apa saja beberapa kesimpulan utama Anda dari era ini?

Peran saya di Telmap adalah membangun mesin pencari di atas data peta dan lokasi.

Ini adalah hari-hari awal “big data” di perusahaan. Kami bahkan tidak menyebutnya, tetapi kami memperoleh dataset yang sangat besar dan mencoba menghasilkan wawasan yang paling berdampak dan relevan untuk ditampilkan kepada pengguna akhir kami.

Salah satu pemahaman yang menonjol yang saya miliki adalah bahwa perusahaan (termasuk kami) menggunakan sangat sedikit dari data mereka (tidak untuk menyebutkan data eksternal yang tersedia secara umum). Ada banyak potensi untuk wawasan baru, proses yang lebih baik, dan pengalaman.

Kesimpulan lainnya adalah bahwa kemampuan untuk mendapatkan lebih banyak data kami bergantung, tentu saja, pada memiliki arsitektur yang lebih baik, infrastruktur yang lebih baik, dan sebagainya.

Apakah Anda bisa berbagi cerita asal-usul di balik Mona Labs?

Ketiga dari kami, co-founder, telah mengelilingi produk data sepanjang karir kami.

Nemo, chief technology officer, adalah teman kuliah dan teman sekelas saya, dan salah satu karyawan pertama Google Tel Aviv. Dia memulai produk di sana yang disebut Google Trends, yang memiliki banyak analitik lanjutan dan pembelajaran mesin berdasarkan data mesin pencari. Itai, co-founder lain dan chief product officer, berada di tim Nemo di Google (dan saya bertemu dengannya melalui Nemo). Kedua dari mereka selalu frustrasi bahwa sistem yang digerakkan AI ditinggalkan tanpa pengawasan setelah pengembangan dan pengujian awal. Meskipun kesulitan dalam menguji sistem ini sebelum produksi, tim masih tidak tahu seberapa baik model prediktif mereka berfungsi seiring waktu. Selain itu, tampaknya bahwa satu-satunya waktu mereka akan mendengar umpan balik tentang sistem AI adalah ketika sesuatu berjalan buruk dan tim pengembangan dipanggil untuk “latihan kebakaran” untuk memperbaiki masalah kritis.

Pada saat yang sama, saya adalah seorang konsultan di McKinsey & Co, dan salah satu hambatan terbesar yang saya lihat untuk program AI dan Big Data yang berkembang di perusahaan besar adalah kurangnya kepercayaan yang dimiliki oleh pemangku kepentingan bisnis terhadap program-program tersebut.

Benang merah di sini menjadi jelas bagi Nemo, Itai, dan saya dalam percakapan. Industri membutuhkan infrastruktur untuk memantau sistem AI/ML di produksi. Kami mengembangkan visi untuk menyediakan visibilitas ini untuk meningkatkan kepercayaan pemangku kepentingan bisnis, dan untuk memungkinkan tim AI untuk selalu memiliki pegangan pada bagaimana sistem mereka berfungsi dan untuk beriterasi lebih efisien.

Dan itulah ketika Mona didirikan.

Apa saja beberapa masalah saat ini dengan kurangnya transparansi AI?

Di banyak industri, organisasi telah menghabiskan puluhan juta dolar ke dalam program AI mereka, dan telah melihat beberapa kesuksesan awal di laboratorium dan dalam penerapan skala kecil. Tetapi meningkatkan skala, mencapai adopsi luas, dan membuat bisnis benar-benar mengandalkan AI telah menjadi tantangan besar bagi hampir semua orang.

Mengapa ini terjadi? Nah, itu dimulai dengan kenyataan bahwa penelitian yang hebat tidak secara otomatis diterjemahkan menjadi produk yang hebat (Seorang pelanggan pernah mengatakan kepada kami, “Model ML seperti mobil, saat mereka meninggalkan laboratorium, mereka kehilangan 20% nilai”). Produk yang hebat memiliki sistem pendukung. Ada alat dan proses untuk memastikan bahwa kualitas dipertahankan seiring waktu, dan bahwa masalah ditemukan lebih awal dan ditangani secara efisien. Produk yang hebat juga memiliki umpan balik berkelanjutan, mereka memiliki siklus perbaikan dan roadmap. Konsekuensinya, produk yang hebat memerlukan transparansi kinerja yang mendalam.

Ketika ada kurangnya transparansi, Anda berakhir dengan:

  • Masalah yang tersembunyi untuk beberapa waktu dan kemudian meledak ke permukaan menyebabkan “latihan kebakaran”
  • Investigasi dan mitigasi manual yang panjang
  • Program AI yang tidak dipercayai oleh pengguna bisnis dan sponsor dan pada akhirnya gagal untuk berkembang

Apakah Anda bisa menawarkan beberapa rincian tentang mesin wawasan Mona?

Tentu. Mari kita mulai dengan motivasi. Tujuan mesin wawasan adalah untuk mengungkapkan anomali kepada pengguna, dengan jumlah informasi kontekstual yang tepat dan tanpa membuat kebisingan atau menyebabkan kelelahan peringatan.

Mesin wawasan adalah alur kerja analitik yang unik. Dalam alur kerja ini, mesin mencari anomali di semua segmen data, memungkinkan deteksi dini masalah ketika mereka masih “kecil”, dan sebelum mereka mempengaruhi seluruh dataset dan KPI bisnis hilir. Kemudian menggunakan algoritma proprietary untuk mendeteksi penyebab akar anomali dan memastikan bahwa setiap anomali hanya diingatkan sekali sehingga kebisingan dihindari. Jenis anomali yang didukung termasuk: anomali deret waktu, drift, outlier, degradasi model, dan lain-lain.

Mesin wawasan sangat dapat disesuaikan melalui konfigurasi no-code/low-code Mona yang intuitif. Konfigurabilitas mesin membuat Mona menjadi solusi yang paling fleksibel di pasar, mencakup berbagai kasus penggunaan (misalnya, batch dan streaming, dengan/tanpa umpan balik bisnis/kebenaran dasar, di seluruh versi model atau antara pelatihan dan inferensi, dan lain-lain).

Akhirnya, mesin wawasan ini didukung oleh dasbor visualisasi, di mana wawasan dapat dilihat, dan sekumpulan alat investigasi untuk memungkinkan analisis akar penyebab dan eksplorasi lebih lanjut dari informasi kontekstual. Mesin wawasan juga sepenuhnya terintegrasi dengan mesin pemberitahuan yang memungkinkan pengguna untuk mendapatkan wawasan di lingkungan kerja mereka sendiri, termasuk email, platform kolaborasi, dan sebagainya.

Pada tanggal 31 Januari, Mona mengungkapkan solusi keadilan AI baru, apakah Anda bisa berbagi dengan kami rincian tentang fitur ini dan mengapa itu penting?

Keadilan AI adalah tentang memastikan bahwa algoritma dan sistem AI secara umum membuat keputusan yang tidak bias dan adil. Mengatasi dan mencegah bias dalam sistem AI sangat penting, karena mereka dapat menghasilkan konsekuensi nyata yang signifikan. Dengan AI yang semakin menonjol, dampaknya pada kehidupan sehari-hari orang akan terlihat di lebih banyak tempat, termasuk mengotomatisasi mengemudi kita, mendeteksi penyakit dengan lebih akurat, memperbaiki pemahaman kita tentang dunia, dan bahkan menciptakan karya seni. Jika kita tidak bisa mempercayai bahwa itu adil dan tidak bias, bagaimana kita bisa membiarkannya terus menyebar?

Salah satu penyebab utama bias dalam AI adalah kemampuan data pelatihan model untuk mewakili dunia nyata secara penuh. Ini dapat berasal dari diskriminasi sejarah, under-representasi kelompok tertentu, atau bahkan manipulasi data yang disengaja. Misalnya, sistem pengenalan wajah yang dilatih pada individu dengan kulit cerah secara dominan kemungkinan memiliki tingkat kesalahan yang lebih tinggi dalam mengenali individu dengan warna kulit yang lebih gelap. Demikian pula, model bahasa yang dilatih pada data teks dari sekumpulan sumber yang sempit dapat mengembangkan bias jika data tersebut miring ke arah pandangan dunia tertentu, pada topik seperti agama, budaya, dan sebagainya.

Solusi keadilan AI Mona memberikan tim AI dan bisnis kepercayaan bahwa AI mereka bebas dari bias. Di sektor yang diatur, solusi Mona dapat mempersiapkan tim untuk kesiapan kepatuhan.

Solusi keadilan Mona istimewa karena berada di platform Mona – jembatan antara data AI dan model serta implikasi dunia nyata mereka. Mona melihat semua bagian proses bisnis yang dilayani model AI di produksi, untuk mengorelasikan antara data pelatihan, perilaku model, dan hasil dunia nyata yang sebenarnya untuk memberikan penilaian yang paling komprehensif tentang keadilan.

Kedua, memiliki mesin analitik yang unik yang memungkinkan segmentasi data yang fleksibel untuk mengontrol parameter yang relevan. Ini memungkinkan penilaian korelasi yang akurat dalam konteks yang tepat, menghindari Paradoks Simpson dan memberikan skor “bias” yang sebenarnya dalam untuk setiap metrik kinerja dan fitur yang dilindungi.

Jadi, secara keseluruhan saya akan mengatakan bahwa Mona adalah elemen dasar untuk tim yang perlu membangun dan meningkatkan AI yang bertanggung jawab.

Apa visi Anda untuk masa depan AI?

Ini adalah pertanyaan besar.

Saya pikir itu sederhana untuk meramalkan bahwa AI akan terus tumbuh dalam penggunaan dan dampak di berbagai sektor industri dan aspek kehidupan orang. Namun, sulit untuk mengambil serius visi yang detail dan mencoba menutupi semua kasus penggunaan dan implikasi AI di masa depan. Karena tidak ada yang benar-benar tahu cukup untuk melukis gambaran yang kredibel.

Yang kita ketahui pasti adalah bahwa AI akan berada di tangan lebih banyak orang dan melayani lebih banyak tujuan. Kebutuhan akan tata kelola dan transparansi akan meningkat secara signifikan.

Visibilitas nyata ke AI dan bagaimana itu bekerja akan memainkan dua peran utama. Pertama, itu akan membantu membangun kepercayaan pada orang dan mengangkat hambatan resistensi untuk adopsi yang lebih cepat. Kedua, itu akan membantu siapa pun yang mengoperasikan AI untuk memastikan bahwa itu tidak kehilangan kendali.

Terima kasih atas wawancara yang luar biasa, pembaca yang ingin mempelajari lebih lanjut harus mengunjungi Mona Labs.

Antoine adalah seorang pemimpin visioner dan mitra pendiri Unite.AI, didorong oleh semangat yang tak tergoyahkan untuk membentuk dan mempromosikan masa depan AI dan robotika. Seorang wirausaha serial, ia percaya bahwa AI akan sama-sama mengganggu masyarakat seperti listrik, dan sering tertangkap berbicara tentang potensi teknologi mengganggu dan AGI.

As a futurist, ia berdedikasi untuk mengeksplorasi bagaimana inovasi ini akan membentuk dunia kita. Selain itu, ia adalah pendiri Securities.io, sebuah platform yang fokus pada investasi di teknologi-teknologi canggih yang mendefinisikan kembali masa depan dan membentuk kembali seluruh sektor.