Connect with us

Kecerdasan buatan

Monokultur Data di AI: Ancaman terhadap Keanekaragaman dan Inovasi

mm

AI sedang mengubah dunia, dari mengubah perawatan kesehatan hingga mereformasi pendidikan. Ini menangani tantangan lama dan membuka kemungkinan yang tidak pernah kita bayangkan sebelumnya. Data berada di pusat revolusi ini—bahan bakar yang menggerakkan setiap model AI. Ini memungkinkan sistem ini untuk membuat prediksi, menemukan pola, dan menyampaikan solusi yang memengaruhi kehidupan sehari-hari kita.

Tapi, sementara kelimpahan data ini mengarah pada inovasi, dominasi dataset seragam—sering disebut sebagai monokultur data—menimbulkan risiko signifikan terhadap keanekaragaman dan kreativitas dalam pengembangan AI. Ini seperti pertanian monokultur, di mana menanam tanaman yang sama di ladang yang luas membuat ekosistem rapuh dan rentan terhadap hama dan penyakit. Dalam AI, mengandalkan dataset seragam menciptakan model yang kaku, bias, dan sering tidak dapat diandalkan.

Artikel ini menyelami konsep monokultur data, memeriksa apa itu, mengapa mereka bertahan, risiko yang mereka bawa, dan langkah-langkah yang dapat kita ambil untuk membangun sistem AI yang lebih pintar, adil, dan inklusif.

Mengenal Monokultur Data

Monokultur data terjadi ketika satu dataset atau sekumpulan sumber data yang sempit mendominasi pelatihan sistem AI. Pengenalan wajah adalah contoh yang terdokumentasi dengan baik tentang monokultur data di AI. Studi dari MIT Media Lab menemukan bahwa model yang dilatih terutama pada gambar individu dengan kulit yang lebih terang mengalami kesulitan dengan wajah yang lebih gelap. Tingkat kesalahan untuk perempuan dengan kulit yang lebih gelap mencapai 34,7%, dibandingkan dengan 0,8% untuk laki-laki dengan kulit yang lebih terang. Hasil ini menyoroti dampak dari data pelatihan yang tidak mencakup keanekaragaman warna kulit yang cukup.

Masalah serupa muncul di bidang lain. Misalnya, model bahasa besar (LLM) seperti OpenAI’s GPT dan Google’s Bard dilatih pada dataset yang sangat bergantung pada konten bahasa Inggris yang bersumber dari konteks Barat. Kekurangan keanekaragaman ini membuat mereka kurang akurat dalam memahami nuansa bahasa dan budaya dari bagian lain dunia. Negara seperti India mengembangkan LLM yang lebih baik mencerminkan bahasa dan nilai-nilai budaya lokal.

Masalah ini dapat sangat kritis, terutama di bidang seperti perawatan kesehatan. Misalnya, alat diagnostik medis yang dilatih terutama pada data dari populasi Eropa mungkin berkinerja buruk di wilayah dengan faktor genetik dan lingkungan yang berbeda.

Asal Monokultur Data

Monokultur data di AI terjadi karena berbagai alasan. Dataset populer seperti ImageNet dan COCO sangat besar, mudah diakses, dan banyak digunakan. Tapi mereka sering mencerminkan pandangan yang sempit dan berpusat pada Barat. Mengumpulkan data yang beragam tidak murah, sehingga banyak organisasi kecil bergantung pada dataset yang sudah ada. Ketergantungan ini memperkuat kurangnya keragaman.

Standardisasi juga merupakan faktor kunci. Peneliti sering menggunakan dataset yang diakui secara luas untuk membandingkan hasil mereka, tanpa sengaja mendorong eksplorasi sumber alternatif. Kecenderungan ini menciptakan umpan balik di mana semua orang mengoptimalkan hasil untuk benchmark yang sama alih-alih menyelesaikan masalah dunia nyata.

Terkadang, masalah ini terjadi karena kelalaian. Pembuat dataset mungkin tidak sengaja meninggalkan kelompok tertentu, bahasa, atau wilayah. Misalnya, versi awal asisten suara seperti Siri tidak menangani aksen non-Barat dengan baik. Alasannya adalah bahwa pengembang tidak menyertakan cukup data dari wilayah tersebut. Kelalaian ini menciptakan alat yang gagal memenuhi kebutuhan audiens global.

Mengapa Ini Penting

Ketika AI mengambil peran yang lebih menonjol dalam pengambilan keputusan, monokultur data dapat memiliki konsekuensi nyata. Model AI dapat memperkuat diskriminasi ketika mereka mewarisi bias dari data pelatihannya. Algoritma perekrutan yang dilatih pada data dari industri yang didominasi laki-laki mungkin tidak sengaja memfavoritkan kandidat laki-laki, mengeluarkan perempuan yang berkualifikasi dari pertimbangan.

Representasi budaya juga merupakan tantangan. Sistem rekomendasi seperti Netflix dan Spotify sering memfavoritkan preferensi Barat, mengesampingkan konten dari budaya lain. Diskriminasi ini membatasi pengalaman pengguna dan menghambat inovasi dengan menjaga ide tetap sempit dan berulang.

Sistem AI juga dapat menjadi rapuh ketika dilatih pada data yang terbatas. Selama pandemi COVID-19, model medis yang dilatih pada data sebelum pandemi gagal beradaptasi dengan kompleksitas krisis kesehatan global. Kekakuan ini dapat membuat sistem AI kurang berguna ketika dihadapkan pada situasi yang tidak terduga.

Monokultur data juga dapat menyebabkan masalah etika dan hukum. Perusahaan seperti Twitter dan Apple telah menghadapi reaksi publik karena algoritma yang bias. Alat pemotongan gambar Twitter dituduh memiliki bias rasial, sementara algoritma kredit Apple Card diduga menawarkan batas yang lebih rendah untuk perempuan. Kontroversi ini merusak kepercayaan pada produk dan memunculkan pertanyaan tentang akuntabilitas dalam pengembangan AI.

Bagaimana Memperbaiki Monokultur Data

Mengatasi masalah monokultur data memerlukan memperluas jangkauan data yang digunakan untuk melatih sistem AI. Tugas ini membutuhkan pengembangan alat dan teknologi yang membuat pengumpulan data dari sumber yang beragam lebih mudah. Proyek seperti Common Voice dari Mozilla, misalnya, mengumpulkan sampel suara dari orang-orang di seluruh dunia, menciptakan dataset yang lebih kaya dengan aksen dan bahasa yang beragam—demikian juga, inisiatif seperti Data untuk AI dari UNESCO fokus pada memasukkan komunitas yang kurang terwakili.

Mengembangkan pedoman etika juga merupakan langkah penting. Kerangka seperti Deklarasi Toronto mempromosikan transparansi dan inklusivitas untuk memastikan bahwa sistem AI adil oleh desain. Kebijakan tata kelola data yang kuat yang terinspirasi oleh regulasi GDPR juga dapat membuat perbedaan besar. Mereka memerlukan dokumentasi sumber data yang jelas dan memegang organisasi bertanggung jawab untuk memastikan keanekaragaman.

Platform sumber terbuka juga dapat membuat perbedaan. Misalnya, hugging Face’s Datasets Repository memungkinkan peneliti untuk mengakses dan berbagi data yang beragam. Model kolaboratif ini mempromosikan ekosistem AI, mengurangi ketergantungan pada dataset yang sempit. Transparansi juga memainkan peran penting. Menggunakan explainable AI dan mengimplementasikan pemeriksaan reguler dapat membantu mengidentifikasi dan memperbaiki bias. Penjelasan ini sangat penting untuk menjaga model tetap adil dan adaptif.

Membangun tim yang beragam mungkin merupakan langkah paling berdampak dan langsung. Tim dengan latar belakang yang beragam lebih baik dalam mendeteksi kebutaan dalam data dan merancang sistem yang bekerja untuk berbagai pengguna. Tim yang inklusif mengarah pada hasil yang lebih baik, membuat AI lebih cerdas dan adil.

Intinya

AI memiliki potensi luar biasa, tetapi efektivitasnya bergantung pada kualitas datanya. Monokultur data membatasi potensi ini, menghasilkan sistem yang bias, kaku, dan terputus dari kebutuhan dunia nyata. Untuk mengatasi tantangan ini, pengembang, pemerintah, dan komunitas harus bekerja sama untuk memperluas dataset, mengimplementasikan praktik etika, dan memupuk tim yang inklusif.
Dengan menangani masalah ini secara langsung, kita dapat menciptakan AI yang lebih pintar dan adil, mencerminkan keanekaragaman dunia yang mereka layani.

Dr. Tehseen Zia adalah Profesor Asosiasi Tetap di COMSATS University Islamabad, memegang gelar PhD di AI dari Vienna University of Technology, Austria. Mengkhususkan diri dalam Kecerdasan Buatan, Pembelajaran Mesin, Ilmu Data, dan Penglihatan Komputer, ia telah membuat kontribusi signifikan dengan publikasi di jurnal ilmiah terkemuka. Dr. Tehseen juga telah memimpin berbagai proyek industri sebagai Penyelidik Utama dan menjabat sebagai Konsultan AI.