Pemimpin pemikiran
Bagaimana Manusia Dapat Mengarahi Perlombaan Senjata AI
Alat AI dianggap oleh banyak orang sebagai berkah untuk penelitian, dari proyek kerja hingga pekerjaan sekolah hingga sains. Misalnya, alih-alih menghabiskan berjam-jam dengan susah payah memeriksa situs web, Anda hanya perlu bertanya kepada ChatGPT sebuah pertanyaan, dan itu akan mengembalikan jawaban yang tampaknya masuk akal. Pertanyaannya, bagaimanapun, adalah – apakah Anda dapat mempercayai hasil tersebut? Pengalaman menunjukkan bahwa jawabannya sering “tidak”. AI hanya bekerja dengan baik ketika manusia lebih terlibat, mengarahkan dan mengawasi, kemudian memeriksa hasil yang dihasilkannya terhadap dunia nyata. Namun, dengan pertumbuhan cepat sektor AI generatif dan alat baru yang dirilis terus-menerus, dapat menjadi tantangan bagi konsumen untuk memahami dan menerima peran yang mereka mainkan saat bekerja dengan alat AI.
Sektor AI sangat besar, dan hanya akan semakin besar, dengan para ahli menyatakan bahwa itu akan bernilai lebih dari satu triliun dolar oleh 2030. Tidak mengherankan, maka, bahwa hampir semua perusahaan teknologi besar – dari Apple hingga Amazon hingga IBM hingga Microsoft, dan banyak lainnya – merilis versi AI mereka sendiri, dan terutama produk AI generatif yang canggih.
Dengan taruhan seperti itu, juga tidak mengherankan bahwa perusahaan bekerja secepat mungkin untuk merilis fitur baru yang akan memberi mereka keunggulan atas kompetisi. Ini memang perlombaan senjata, dengan perusahaan mencari untuk mengunci sebanyak mungkin pengguna ke dalam ekosistem mereka. Perusahaan berharap bahwa fitur yang memungkinkan pengguna untuk menggunakan sistem AI dengan cara yang paling mudah – seperti dapat mendapatkan semua informasi yang dibutuhkan untuk proyek penelitian dengan hanya bertanya kepada chatbot AI generatif – akan memenangkan lebih banyak pelanggan, yang akan tetap dengan produk atau merek saat fitur baru ditambahkan secara teratur.
Namun, terkadang, dalam perlombaan mereka untuk menjadi yang pertama, perusahaan merilis fitur yang mungkin belum diverifikasi dengan baik, atau batasannya tidak dipahami atau didefinisikan dengan baik. Sementara perusahaan telah bersaing di masa lalu untuk pangsa pasar pada banyak teknologi dan aplikasi, tampaknya perlombaan senjata saat ini menyebabkan lebih banyak perusahaan merilis lebih banyak “produk setengah jadi” daripada sebelumnya – dengan hasil setengah jadi yang dihasilkan. Mengandalkan hasil seperti itu untuk tujuan penelitian – apakah bisnis, pribadi, medis, akademis, atau lainnya – dapat menyebabkan hasil yang tidak diinginkan, termasuk kerusakan reputasi, kerugian bisnis, atau bahkan risiko bagi kehidupan.
Kegagalan AI telah menyebabkan kerugian besar bagi beberapa bisnis. Sebuah perusahaan bernama iTutor dikenakan denda $365.000 pada 2023, setelah algoritma AI-nya menolak puluhan pelamar kerja karena usia mereka. Zillow, pasar real estat, kehilangan ratusan juta dolar pada 2021 karena prediksi harga yang tidak akurat oleh sistem AI-nya. Pengguna yang mengandalkan AI untuk saran medis juga berisiko. Chat GPT, misalnya, memberikan informasi yang tidak akurat kepada pengguna tentang interaksi antara obat penurun tekanan darah verapamil dan Paxlovid, pil antiviral Pfizer untuk Covid-19 – dan apakah seorang pasien dapat mengambil obat-obatan tersebut pada saat yang sama. Mereka yang mengandalkan saran sistem yang tidak akurat bahwa tidak ada interaksi antara keduanya dapat menemukan diri mereka berisiko.
Sementara insiden tersebut membuat berita, banyak kegagalan AI lainnya tidak – tetapi mereka dapat sama-sama mematikan bagi karir dan reputasi. Misalnya, seorang manajer pemasaran yang sibuk mencari jalan pintas untuk menyiapkan laporan mungkin tergoda untuk menggunakan alat AI untuk menghasilkannya – dan jika alat tersebut menyajikan informasi yang tidak akurat, mereka mungkin menemukan diri mereka mencari pekerjaan lain. Seorang siswa yang menggunakan ChatGPT untuk menulis laporan – dan profesornya cukup pintar untuk menyadari sumber laporan tersebut – mungkin menghadapi F, mungkin untuk semester. Dan seorang pengacara yang asistennya menggunakan alat AI untuk pekerjaan hukum, dapat menemukan diri mereka dikenakan denda atau bahkan dicabut izin praktik jika kasus yang mereka hadapi terdistorsi karena data yang buruk.
Hampir semua situasi ini dapat dicegah – jika manusia mengarahkan AI dan memiliki transparansi lebih banyak ke dalam loop penelitian. AI harus dilihat sebagai kemitraan antara manusia dan mesin. Ini adalah kolaborasi yang sebenarnya – dan itulah nilai luar biasanya.
Sementara fitur pencarian, pemformatan, dan analisis yang lebih kuat dipersilakan, pembuat produk AI juga perlu memasukkan mekanisme yang memungkinkan kerja sama ini. Sistem perlu mencakup alat pemeriksa fakta yang akan memungkinkan pengguna untuk memeriksa hasil laporan dari alat seperti ChatGPT, dan membiarkan pengguna melihat sumber asli dari titik data atau informasi tertentu. Ini akan menghasilkan penelitian yang superior, dan memulihkan kepercayaan pada diri kita sendiri; kita dapat mengirimkan laporan, atau merekomendasikan kebijakan dengan percaya diri berdasarkan fakta yang kita percayai dan pahami.
Pengguna juga perlu mengenali dan menimbang apa yang dipertaruhkan ketika mengandalkan AI untuk menghasilkan penelitian. Mereka harus menimbang tingkat kesulitan dengan pentingnya hasil. Misalnya, manusia mungkin dapat mempercayai AI untuk perbandingan restoran lokal. Namun, ketika melakukan penelitian yang akan mempengaruhi keputusan bisnis yang berharga atau desain pesawat atau peralatan medis, misalnya, pengguna perlu lebih terlibat pada setiap tahap proses penelitian yang digerakkan oleh AI. Semakin penting keputusan, semakin penting bagi manusia untuk menjadi bagian dari itu. Penelitian untuk keputusan yang relatif kecil mungkin dapat dipercayakan sepenuhnya kepada AI.
AI semakin baik seiring waktu – bahkan tanpa bantuan manusia. Memungkinkan, jika tidak mungkin, bahwa alat AI yang dapat memeriksa diri mereka sendiri muncul, memeriksa hasil mereka terhadap dunia nyata dengan cara yang sama seperti manusia – baik membuat dunia tempat yang jauh lebih baik, atau menghancurkannya. Namun, alat AI mungkin tidak mencapai tingkat itu secepat yang banyak orang percayai, atau mungkin tidak pernah. Ini berarti bahwa faktor manusia masih akan sangat penting dalam proyek penelitian apa pun. Sebagus apa pun alat AI dalam menemukan data dan mengatur informasi, mereka tidak dapat dipercaya untuk mengevaluasi konteks dan menggunakan informasi dengan cara yang kita, sebagai manusia, membutuhkannya. Untuk masa depan yang dapat dilihat, penting bahwa peneliti melihat alat AI untuk apa adanya; alat untuk membantu menyelesaikan pekerjaan, bukan sesuatu yang menggantikan manusia dan otak manusia dalam pekerjaan.












