Kecerdasan buatan
Omri Geller, CEO & Co-Founder of Run:AI – Wawancara Seri

Omri Geller adalah CEO dan Co-Founder di Run:AI
Run:AI memvirtualisasi dan mempercepat AI dengan menggabungkan sumber daya komputasi GPU untuk memastikan visibilitas dan, pada akhirnya, kontrol atas prioritas dan alokasi sumber daya. Ini memastikan bahwa proyek AI dipetakan ke tujuan bisnis dan menghasilkan perbaikan yang signifikan dalam produktivitas tim ilmu data, memungkinkan mereka untuk membangun dan melatih model paralel tanpa keterbatasan sumber daya.
Apa yang awalnya menarik Anda ke Kecerdasan Buatan?
Ketika saya memulai gelar Sarjana di Teknik Elektro dan Elektronik di Universitas Tel Aviv, saya menemukan hal-hal yang menarik tentang AI yang saya tahu akan membantu membawa kita ke langkah berikutnya dalam kemungkinan komputasi. Dari sana, saya tahu saya ingin berinvestasi di ruang AI. Apakah itu dalam penelitian AI, atau membuka perusahaan yang akan membantu memperkenalkan cara baru untuk menerapkan AI ke dunia.
Apakah Anda selalu memiliki minat dalam perangkat keras komputer?
Ketika saya menerima komputer pertama saya dengan prosesor Intel 486 pada usia enam atau tujuh tahun, saya langsung tertarik untuk mengetahui bagaimana semuanya bekerja, meskipun saya mungkin terlalu muda untuk benar-benar memahami itu. Selain olahraga, komputer menjadi salah satu hobi terbesar saya saat tumbuh dewasa. Sejak itu, saya telah membangun komputer, bekerja dengan mereka, dan melanjutkan studi di bidang ini karena passion yang saya miliki sebagai anak kecil.
Apa yang menginspirasi Anda untuk meluncurkan Run:AI?
Saya tahu dari awal bahwa saya ingin berinvestasi di ruang AI. Dalam beberapa tahun terakhir, industri telah mengalami pertumbuhan yang luar biasa dalam AI, dan sebagian besar pertumbuhan itu berasal dari ilmuwan komputer, seperti saya, dan perangkat keras yang dapat mendukung lebih banyak aplikasi. Ini menjadi jelas bagi saya bahwa saya akan memulai perusahaan – dan bersama dengan co-founder saya Ronen Dar – untuk terus berinovasi dan membantu membawa AI ke lebih banyak perusahaan.
Run:AI memungkinkan spesialis pembelajaran mesin untuk mendapatkan kontrol baru atas alokasi sumber daya GPU yang mahal. Bagaimana cara kerjanya?
Apa yang perlu kita pahami adalah bahwa insinyur pembelajaran mesin, seperti peneliti dan ilmuwan data, perlu mengonsumsi daya komputasi dengan cara yang fleksibel. Tidak hanya komputasi terbaru sangat intensif komputasi, tetapi juga ada alur kerja baru yang digunakan dalam ilmu data. Alur kerja ini berdasarkan pada kenyataan bahwa ilmu data berdasarkan pada eksperimen dan menjalankan eksperimen.
Untuk mengembangkan solusi baru untuk menjalankan eksperimen yang lebih efisien, kita perlu mempelajari kecenderungan alur kerja ini dari waktu ke waktu. Misalnya: Seorang ilmuwan data menggunakan delapan GPU dalam satu hari, tetapi kemudian hari berikutnya mereka mungkin menggunakan nol, atau mereka dapat menggunakan satu GPU untuk jangka waktu lama, tetapi kemudian perlu menggunakan 100 GPU karena mereka ingin menjalankan 100 eksperimen paralel. Setelah kita memahami alur kerja ini untuk mengoptimalkan daya pengolahan satu pengguna, kita dapat mulai menskalakan ke beberapa pengguna.
Dengan komputasi tradisional, jumlah GPU tertentu dialokasikan untuk setiap pengguna, tanpa memperhatikan apakah mereka digunakan atau tidak. Dengan metode ini, sering kali GPU mahal tidak digunakan tanpa ada yang dapat mengaksesnya, menghasilkan ROI yang rendah untuk GPU. Kita memahami prioritas keuangan perusahaan, dan menawarkan solusi yang memungkinkan alokasi dinamis sumber daya tersebut sesuai dengan kebutuhan pengguna. Dengan menawarkan sistem yang fleksibel, kita dapat mengalokasikan daya tambahan ke pengguna tertentu ketika diperlukan, dengan menggunakan GPU yang tidak digunakan oleh pengguna lain, menciptakan ROI maksimal untuk sumber daya komputasi perusahaan dan mempercepat inovasi & waktu ke pasar solusi AI.
Salah satu fungsionalitas Run:AI adalah bahwa itu memungkinkan pengurangan titik buta yang diciptakan oleh alokasi statis GPU. Bagaimana ini dicapai?
Kita memiliki alat yang memberikan visibilitas penuh ke cluster sumber daya. Dengan menggunakan alat ini, kita dapat mengamati dan memahami jika ada titik buta, dan kemudian menggunakan GPU idle untuk pengguna yang membutuhkan alokasi. Alat yang sama yang memberikan visibilitas ke cluster dan kontrol atas cluster juga memastikan bahwa titik buta tersebut diminimalkan.
Dalam pidato terbaru, Anda menyoroti beberapa perbedaan antara alur kerja pembangunan dan pelatihan, dapatkah Anda menjelaskan bagaimana Run:AI menggunakan mekanisme manajemen antrian GPU untuk mengalokasikan manajemen sumber daya untuk keduanya?
Sebuah model AI dibangun dalam dua tahap. Pertama, ada tahap pembangunan, di mana seorang ilmuwan data menulis kode untuk membangun model sebenarnya, sama seperti insinyur membangun mobil. Kedua adalah tahap pelatihan, di mana model yang selesai mulai belajar dan dilatih untuk mengoptimalkan tugas tertentu. Sama seperti seseorang belajar mengemudi mobil setelah mobil tersebut dirakit.
Untuk membangun model itu sendiri, tidak banyak daya komputasi yang diperlukan. Namun, akhirnya, itu bisa membutuhkan daya pengolahan yang lebih kuat untuk memulai tes internal yang lebih kecil. Misalnya, cara insinyur ingin menguji mesin sebelum mereka memasangnya. Karena kebutuhan yang berbeda selama setiap tahap, Run.AI memungkinkan alokasi GPU terlepas dari apakah mereka sedang membangun atau melatih model, namun, seperti disebutkan sebelumnya, penggunaan GPU yang lebih tinggi umumnya diperlukan untuk melatih model sementara yang lebih sedikit diperlukan untuk membangunnya.
Berapa banyak waktu komputasi mentah/sumber daya yang dapat diselamatkan oleh pengembang AI yang ingin mengintegrasikan Run.AI ke dalam sistem mereka?
Solusi kami di Run.ai dapat meningkatkan digitalisasi sumber daya, sekitar dua hingga tiga kali, artinya 2-3 kali lebih produktif secara keseluruhan.
Terima kasih atas wawancara, pembaca yang ingin mempelajari lebih lanjut dapat mengunjungi Run:AI.












