Connect with us

Kecerdasan buatan

Kami Tidak Lagi Mengatur AI. Kami Mengatur Peradaban

mm

Selama bertahun-tahun, pertanyaan utama dalam kecerdasan buatan (AI) adalah bagaimana mengatur model AI dengan nilai-nilai manusia. Peneliti berusaha mendefinisikan aturan keselamatan, prinsip etika, dan mekanisme kontrol yang memandu keputusan AI. Pekerjaan ini mencapai kemajuan yang signifikan. Namun, sekarang, karena sistem AI ini tumbuh lebih kuat dan tersebar luas, fokus pengaturan mulai bergeser. Apa yang dimulai sebagai tantangan mengatur satu model untuk satu set instruksi sekarang telah menjadi tantangan yang jauh lebih besar untuk mengatur peradaban seluruhnya yang menggunakan sistem ini pada skala global. AI tidak lagi hanya menjadi alat. Ini berkembang menjadi lingkungan di mana masyarakat bekerja, berkomunikasi, bernegosiasi, dan bersaing. Sebagai hasilnya, pengaturan tidak lagi menjadi masalah teknis. Ini telah menjadi masalah peradaban. Dalam artikel ini, saya menjelaskan mengapa pengaturan tidak lagi hanya tentang model dan mengapa kita harus mulai berpikir dalam hal peradaban bukan mesin. Saya juga membahas bagaimana pergeseran ini mempengaruhi tanggung jawab kita dan apa yang dimaksud dengan kerja sama global.

Nilai Siapa yang Benar-Benar Direpresentasikan oleh AI?

Jika Anda bertanya kepada AI tentang peristiwa sejarah yang sensitif, jawabannya tergantung pada data yang dipelajari. Jika data tersebut sebagian besar berasal dari internet Barat, jawabannya akan memiliki bias Barat. Ini akan memprioritaskan individualisme, kebebasan berbicara, dan ideal demokratis. Ini adalah nilai-nilai yang baik bagi banyak orang. Namun, ini tidak satu-satunya nilai di dunia.

Seorang pengguna di Singapura, seorang pengguna di Riyadh, dan seorang pengguna di San Francisco memiliki definisi yang berbeda tentang apa yang “bermanfaat” dan apa yang “merugikan.” Di beberapa budaya, harmoni sosial lebih penting daripada kebebasan berbicara yang absolut. Di lainnya, rasa hormat terhadap hierarki lebih penting daripada perubahan.

Ketika sebuah perusahaan di Silicon Valley menggunakan “Reinforcement Learning from Human Feedback” (RLHF), mereka merekrut manusia untuk menilai jawaban AI. Namun, siapa manusia-manusia ini? Apa kepercayaan mereka? Jika mereka mengatur model dengan standar Amerika, mereka secara tidak sengaja membangun ekspor budaya Amerika. Mereka membangun diplomat digital yang menerapkan aturan peradaban tertentu pada dunia lain.

Munculnya Lingkaran Umpan Balik

Tantangan tidak hanya bahwa AI mencerminkan kepercayaan satu budaya. Ini tentang bagaimana kepercayaan tersebut dapat mengubah kita. Sistem AI modern memiliki potensi untuk membentuk perilaku individu, organisasi, dan bahkan negara. Mereka dapat mempengaruhi bagaimana kita berpikir, bekerja, percaya, dan bersaing. Ini menciptakan lingkaran umpan balik antara sistem AI dan masyarakat manusia; kita melatih AI dan AI membentuk bagaimana kita berpikir dan bertindak. Lingkaran ini menjadi lebih kuat karena AI menjadi lebih meresap. Untuk melihat bagaimana lingkaran umpan balik ini bekerja, berikut adalah dua contoh:

  • Penggunaan AI skala besar mengubah perilaku sosial, dan perilaku sosial mengubah data yang melatih sistem baru. Misalnya, algoritma rekomendasi dapat membentuk apa yang dipandang, dibaca, dan dipercaya orang. Alat produktivitas mengubah bagaimana tim bekerja sama dan bagaimana siswa belajar. Perubahan perilaku ini mengubah pola data dalam bentuk kebiasaan menonton, pola komunikasi tempat kerja, atau gaya penulisan. Ketika data ini mengalir ke dalam dataset pelatihan masa depan, model menyesuaikan asumsi dan outputnya secara tepat. Perilaku manusia membentuk model, dan model, pada gilirannya, membentuk perilaku manusia.
  • Alat keputusan otomatis mempengaruhi kebijakan publik, dan kebijakan publik mempengaruhi pelatihan model masa depan. Misalnya, banyak pemerintah sekarang menggunakan AI untuk menyarankan di mana untuk mengalokasikan sumber daya seperti mengidentifikasi lingkungan mana yang membutuhkan lebih banyak dukungan kesehatan atau area mana yang mungkin melihat risiko kejahatan yang lebih tinggi. Ketika pembuat kebijakan bertindak berdasarkan rekomendasi ini, hasil keputusan tersebut kemudian menjadi bagian dari dataset baru. Seiring waktu, keputusan kebijakan yang dibentuk oleh AI berakhir dengan membentuk generasi model AI berikutnya.

Sekali Anda mengenali lingkaran umpan balik ini, menjadi jelas bahwa AI secara bertahap membentuk dan mengatur peradaban. Sebagai hasilnya, negara-negara mulai bertanya: Bagaimana mereka dapat melindungi nilai-nilai mereka sambil mengintegrasikan AI ke dalam masyarakat dan lembaga mereka?

Munculnya AI Berdaulat

Tantangan pengaturan ini telah memicu reaksi signifikan dari pemerintah di seluruh dunia. Negara-negara telah menyadari bahwa mengandalkan AI impor adalah risiko bagi kedaulatan mereka. Mereka tidak dapat membiarkan warga negara mereka dididik, diberitahu, dan diberi nasihat oleh kotak hitam yang berpikir seperti orang asing.

Pengertian ini telah menyebabkan munculnya “AI Berdaulat.” Perancis berinvestasi berat untuk membangun model yang berbicara bahasa Perancis dan memahami hukum dan budaya Perancis. India membangun model AI asli untuk memastikan nilai-nilai budaya mereka. Uni Emirat Arab dan Cina membangun model AI yang sesuai dengan visi nasional mereka.

Ini adalah lomba baru. Ini adalah lomba untuk kontrol narasi. Peradaban yang tidak memiliki AI sendiri akhirnya akan kehilangan memori sendiri. Jika anak-anak Anda bertanya kepada mesin, dan mesin menjawab dengan logika budaya lain, budaya Anda mulai terkikis. Pengertian ini, bagaimanapun, mungkin menyebabkan pembentukan blok digital yang berbeda. Kita mungkin berakhir dengan AI Barat, AI Cina, AI India, dan sebagainya. Sistem ini akan beroperasi dengan fakta dan kompas moral yang berbeda. Pengembangan ini membuat jelas bahwa jika kita ingin menciptakan model AI yang benar-benar terintegrasi, kita harus terlebih dahulu menemukan cara untuk mengatur peradaban.

Keperluan untuk AI Diplomatik

Pengaturan tradisional menganggap bahwa model dapat diatur dengan pelatihan, penyampaian, dan pengamanan yang cermat. Pemikiran ini berasal dari mindset teknis penelitian keamanan AI awal. Namun, bahkan pengaturan model yang sempurna tidak dapat menyelesaikan tantangan pengaturan peradaban. Pengaturan tidak dapat tetap stabil ketika masyarakat menarik ke arah yang berlawanan. Jika negara, perusahaan, dan komunitas memiliki tujuan yang bertentangan, mereka akan mendorong sistem AI untuk mencerminkan konflik tersebut. Batasan ini menunjukkan bahwa pengaturan tidak hanya menjadi masalah teknis. Ini adalah masalah tata kelola, budaya, dan koordinasi. Dan masalah-masalah ini memerlukan tidak hanya ahli atau pengembang. Ini melibatkan peradaban seluruhnya.

Jadi, bagaimana kita melangkah maju? Jika kita menerima bahwa pengaturan universal tidak mungkin, kita harus mengubah strategi. Kita perlu berhenti mencari solusi teknis untuk masalah filosofis. Kita perlu mulai berpikir seperti diplomat. Kita akan membutuhkan protokol untuk “Pengaturan Peradaban.” Kita perlu mengetahui bagaimana AI dapat menghormati kepercayaan dan nilai-nilai suatu masyarakat tanpa mengimposkan kepercayaan budaya lain. Dengan kata lain, kita perlu Perserikatan Bangsa-Bangsa digital untuk algoritma kita.

Ini memerlukan transparansi. Saat ini, kita tidak benar-benar tahu nilai-nilai apa yang tersembunyi di dalam lapisan dalam jaringan saraf. Kita hanya melihat output. Untuk mengatur peradaban, kita perlu jelas tentang “Konstitusi” dari setiap model. Sebuah model harus dapat menyatakan biasnya. Ini harus dapat mengatakan, “Saya dilatih pada data ini, dengan aturan keselamatan ini, memprioritaskan nilai-nilai ini.” Hanya ketika bias terlihat jelas dapat kita percayai sistem. Seorang pengguna harus dapat beralih antara perspektif. Anda harus dapat bertanya dan melihat bagaimana model “Barat” menjawab versus bagaimana model “Timur” menjawab. Ini akan mengubah AI menjadi alat untuk memahami, bukan alat untuk indoktrinasi.

Intinya

Kita telah menghabiskan terlalu banyak waktu untuk khawatir tentang Terminator. Risiko sebenarnya bukanlah bahwa robot menghancurkan kita. Risiko sebenarnya adalah bahwa robot membuat kita lupa siapa kita. Pengaturan tidak lagi hanya tentang model. Ini tentang negosiasi konstan dengan model AI untuk menjaga mereka tetap sejalan dengan kepercayaan dan nilai-nilai kita. Ini adalah tindakan politik. Ketika kita memasuki fase berikutnya dari usia kecerdasan, kita harus melihat melampaui layar. Kita harus mempertimbangkan bagaimana AI menafsirkan sejarah kita, perbatasan kita, dan kepercayaan kita. Kita sedang membangun pikiran yang akan membantu kita mengelola dunia. Kita harus memastikan bahwa pikiran tersebut menghormati perbedaan antara peradaban.

Dr. Tehseen Zia adalah Profesor Asosiasi Tetap di COMSATS University Islamabad, memegang gelar PhD di AI dari Vienna University of Technology, Austria. Mengkhususkan diri dalam Kecerdasan Buatan, Pembelajaran Mesin, Ilmu Data, dan Penglihatan Komputer, ia telah membuat kontribusi signifikan dengan publikasi di jurnal ilmiah terkemuka. Dr. Tehseen juga telah memimpin berbagai proyek industri sebagai Penyelidik Utama dan menjabat sebagai Konsultan AI.