Pemimpin pemikiran
Kecerdasan Buatan dan Busur Kepercayaan

Awal tahun lalu, ketika tim kami membuat prediksi tentang apa yang akan terjadi di masa depan, kesepakatan adalah bahwa pembungkus kecerdasan buatan (AI) akan dibuka. Kami akhirnya akan melihat apa yang bisa dilakukan AI, dan semoga, memperoleh kejelasan tentang dampaknya pada bisnis dan masyarakat dan bagaimana cara melanjutkannya. Ini bukanlah prediksi yang baru, tetapi intinya akurat, meskipun kami masih bergumul dengan implikasi AI dan bagaimana (atau jika) itu harus dikendalikan dengan beberapa cara.
Kami akan melihat Apple, Microsoft, dan Google membangun AI ke dalam perangkat dan membawa kekuatannya ke audiens yang lebih luas dan lebih besar. Kemudian, satu chatbot di alat pencarian yang ditenagai AI mengancam pengguna dan mengklaim bahwa itu mengawasi karyawan, sementara yang lain menyarankan menggunakan lem Elmer untuk membuat pizza homemade agar keju tidak terlepas. Namun, kasus penggunaan AI bisnis tumbuh secara dramatis dan begitu juga pasar. Menurut data dari Crunchbase, hampir seperempat dari semua pendanaan ventura global tahun lalu saja untuk perusahaan di bidang terkait AI.
Tapi bahkan ketika OpenAI menghadirkan penalaran yang ditingkatkan, peneliti AI terkenal, Yoshua Bengio, mendesak adopsi langkah-langkah keamanan untuk “model frontier” dengan potensi menyebabkan kerusakan yang sangat parah. Dan meskipun teknologi itu akan membawa pulang dua Hadiah Nobel untuk aplikasi di ilmu pengetahuan, salah satu penerimanya mengungkapkan kekhawatiran tentang memiliki sistem “lebih cerdas dari kita yang akhirnya mengambil alih.”
Dalam ruang yang bergerak cepat seperti ini, sulit bagi teknolog ahli untuk mengikuti, apalagi bagi mereka yang berada di arus utama.
Dan kesalahan AI – dan kekhawatiran tentang privasi dan penggunaan yang tidak terkendali – hanya meningkatkan kehati-hatian publik.
Percayalah padaku
Kami menemukan diri kami di tengah-tengah busur kepercayaan, yang memerlukan penerimaan publik yang meningkat terhadap AI, sementara memastikan komunitas bisnis dan teknologi bertindak secara bertanggung jawab. Bagian pertama adalah di mana permainan sedang dimainkan sekarang, pada tingkat perusahaan, mendapatkan momentum dengan setiap penerapan yang aman dan suara. Kami membangun atas dasar bukti kami, yang akhirnya akan mengarah pada kepercayaan publik yang meningkat. Bagian kedua, bagaimanapun, jauh lebih sulit.
Siapa yang mendefinisikan dan menerapkan penggunaan AI yang bertanggung jawab? Bisakah industri menciptakan pedoman ketika mereka sendiri yang memerlukan pengawasan? Jika teknolog ahli memiliki kesulitan mengikuti AI, apakah pembuat kebijakan akan terinformasi, dan menjaga agenda politik mereka di luar diskusi? Dan ketika seorang milyuner AI tiba-tiba ingin berbicara tentang kontrol, apakah mereka memiliki epifani atau hanya mencoba memompa rem untuk mengejar?
“Percayalah padaku” tidak akan cukup dengan AI, tidak peduli siapa Anda.
Percayalah dan verifikasi
Orang-orang melihat AI generatif seperti ChatGPT dan bertanya-tanya apakah itu akan menjadi Google berikutnya? Nah, hasil teratas dari pencarian Google sekarang diciptakan oleh model AI-nya, Gemini. Masalahnya adalah Anda tidak bisa mengandalkannya untuk bisnis skala besar ketika pertanyaan sederhana seperti “Apakah daging mentah aman untuk dikonsumsi?” mengembalikan jawaban, “Ya, beku.” Anda perlu memeriksa data.
Busur kepercayaan publik akan mencerminkan apa yang dilakukan dengan pencarian konvensional, diperoleh dari waktu ke waktu dan dengan bukti keandalan. Ironisnya, dalam upaya kami untuk menyederhanakan dan meningkatkan pencarian, kami telah mengambil langkah mundur. Sekarang, setelah mendapatkan jawaban yang dihasilkan AI di atas, Anda harus menggulir melewati daftar tautan sponsor yang panjang, mengklik lima berikutnya dan masih memenuhi informasi.
Itu adalah banyak pekerjaan ketika Anda mencari jawaban cepat – dan Anda tidak bisa memiliki perusahaan entire melakukan hal yang sama. Namun, perkaya data yang telah Anda gali dengan puluhan ribu tiket layanan Anda sendiri dan Anda membawa pengetahuan sebenarnya tentang lingkungan Anda. Secara algoritmik, Anda kemudian dapat mengkonfigurasi halusinasi ke bawah, tetapi masih, itu tetap menjadi situasi “percayalah dan verifikasi”.
Jauhkan politik dari itu
Ketika datang ke regulasi AI, beberapa orang mengatakan bahwa kuda telah meninggalkan kandang dan kemungkinan tidak akan tertangkap. Misalnya, ada kekurangan alat yang benar-benar efektif untuk memeriksa apakah seorang siswa menulis makalah atau menggunakan GenAI. Teknologi itu terlalu jauh di depan.
Mengatur ini akan sangat kompleks, dan untuk jujur, kami akan berada di atas es tipis. Kami tahu bahwa perusahaan teknologi adalah dekade di depan regulator luar yang diusulkan. Namun, kami baik dalam menciptakan jalur, bukan terhambat. Namun, pada akhir hari, mungkin jatuh pada inovator untuk mencoba menerapkan tata kelola. Siapa lagi yang bisa melakukannya – dengan bertanggung jawab?
Ada banyak politisi yang ingin mencobanya. Risikonya, selain kurangnya pemahaman, adalah jika mereka memiliki agenda pribadi dan politik untuk maju. Fokus mereka, potensial, akan kurang pada mengembangkan AI dan lebih pada melakukan apa yang terbaik untuk kepentingan politik mereka. Mereka mungkin bisa bekerja dari ketakutan publik, menggunakan tangan yang berat untuk menghambat kemajuan.
Undang-Undang CHIPS dan Sains adalah contoh tindakan pemerintah yang sehat, menghasilkan peningkatan 15 kali lipat dalam pembangunan fasilitas manufaktur untuk perangkat komputasi dan perangkat elektronik. Tapi ini dimungkinkan melalui bipartisanship – yang semakin menjadi fosil dari era lampau.
Apakah kita layak?
Ada banyak uang yang mengalir ke AI dan selama dua dekade ke depan, banyak yang akan dibuat oleh perusahaan teknologi. Berapa banyak, seberapa cepat, dan seberapa aman tetap harus dilihat. Pada hari tertentu, deep fake bisa beredar, menunjukkan seseorang di sorotan menggenggam telur burung yang terancam punah. Publik akan bereaksi dengan kengerian, dan sementara itu mungkin terungkap sebagai AI yang dihasilkan, telur itu tidak bisa kembali ke cangkang – kerusakan sudah dilakukan.
Kami perlu hal-hal seperti itu untuk diatur oleh teknolog yang terinformasi. Bentuk apa yang diambil – dewan, badan standar, kerangka kerja internasional – masih harus dilihat. Yang diketahui adalah AI berada pada busur kepercayaan, dan sebagai industri, kami perlu membuktikan bahwa kami layak mendapatkannya.












