potongan Apakah AI merupakan Ancaman Eksistensial? - Bersatu.AI
Terhubung dengan kami

Kecerdasan Umum Buatan

Apakah AI merupakan Ancaman Eksistensial?

mm
Updated on

Saat membahas Kecerdasan Buatan (AI), perdebatan umum adalah apakah AI merupakan ancaman nyata. Jawabannya memerlukan pemahaman teknologi di balik Machine Learning (ML), dan menyadari bahwa manusia memiliki kecenderungan untuk melakukan antropomorfisasi. Kami akan mengeksplorasi dua jenis AI yang berbeda, Artificial Narrow Intelligence (ANI) yang tersedia saat ini dan menimbulkan kekhawatiran, dan ancaman yang paling sering dikaitkan dengan AI yang bersifat apokaliptik yaitu Artificial General Intelligence (AGI).

Ancaman Kecerdasan Sempit Buatan

Untuk memahami apa itu ANI, Anda hanya perlu memahami bahwa setiap aplikasi AI yang tersedia saat ini adalah salah satu bentuk ANI. Ini adalah bidang AI yang memiliki bidang khusus yang sempit, misalnya kendaraan otonom menggunakan AI yang dirancang dengan tujuan tunggal untuk memindahkan kendaraan dari titik A ke B. Jenis ANI lainnya mungkin adalah program catur yang dioptimalkan untuk dimainkan catur, dan bahkan jika program catur terus meningkatkan dirinya dengan menggunakan pembelajaran penguatan, program catur tidak akan pernah bisa mengoperasikan kendaraan otonom.

Dengan fokusnya pada operasi apa pun yang menjadi tanggung jawabnya, sistem ANI tidak dapat menggunakan pembelajaran umum untuk mengambil alih dunia. Itulah kabar baiknya; kabar buruknya adalah dengan ketergantungannya pada operator manusia, sistem AI rentan terhadap data bias, kesalahan manusia, atau lebih buruk lagi, operator manusia nakal.

Pengawasan AI

Mungkin tidak ada bahaya yang lebih besar bagi umat manusia daripada manusia yang menggunakan AI untuk melanggar privasi, dan dalam beberapa kasus menggunakan pengawasan AI untuk sepenuhnya mencegah orang bergerak bebas.  China, Rusia, dan negara lain melewati peraturan selama COVID-19 untuk memungkinkan mereka memantau dan mengendalikan pergerakan populasi mereka masing-masing. Ini adalah undang-undang yang pernah ada, sulit untuk dihapus, terutama di masyarakat yang menampilkan pemimpin otokratis.

Di China, kamera ditempatkan di luar rumah orang, dan dalam beberapa kasus di dalam rumah orang tersebut. Setiap kali anggota rumah tangga pergi, AI memantau waktu kedatangan dan keberangkatan, dan jika perlu memberi tahu pihak berwenang. Seakan itu belum cukup, dengan bantuan teknologi pengenalan wajah, China mampu melacak pergerakan setiap orang setiap kali mereka diidentifikasi oleh kamera. Ini menawarkan kekuatan absolut kepada entitas yang mengendalikan AI, dan sama sekali tidak ada jalan lain bagi warganya.

Mengapa skenario ini berbahaya, adalah pemerintah yang korup bisa dengan hati-hati memantau gerak-gerik jurnalis, lawan politik, atau siapapun yang berani mempertanyakan kewibawaan pemerintah. Sangat mudah untuk memahami bagaimana jurnalis dan warga negara berhati-hati untuk mengkritik pemerintah ketika setiap gerakan sedang dipantau.

Untungnya ada banyak kota yang berjuang untuk mencegah pengenalan wajah menyusup ke kota mereka. Terutama, Portland, Oregon baru-baru ini mengesahkan undang-undang yang memblokir pengenalan wajah agar tidak digunakan secara tidak perlu di kota. Sementara perubahan peraturan ini mungkin tidak diperhatikan oleh masyarakat umum, di masa depan peraturan ini bisa menjadi pembeda antara kota yang menawarkan semacam otonomi dan kebebasan, dan kota yang terasa menindas.

Senjata dan Drone Otonom

Lebih dari 4500 penelitian AI telah menyerukan pelarangan senjata otonom dan telah menciptakannya Larangan Senjata Otonomi Mematikan situs web. Grup ini memiliki banyak organisasi nirlaba terkemuka sebagai penandatangan seperti Lembaga Hak Asasi Manusia, Amnesty International, Dan Institut Kehidupan Masa Depan yang dengan sendirinya memiliki dewan penasehat ilmiah bintang termasuk Elon Musk, Nick Bostrom, dan Stuart Russell.

Sebelum melanjutkan, saya akan membagikan kutipan dari The Future of Life Institute yang paling menjelaskan mengapa ada alasan yang jelas untuk dikhawatirkan: “Berbeda dengan senjata semi-otonom yang memerlukan pengawasan manusia untuk memastikan bahwa setiap target divalidasi sebagai sah secara etis dan hukum, seperti senjata yang sepenuhnya otonom memilih dan melibatkan target tanpa campur tangan manusia, mewakili otomatisasi lengkap dari bahaya yang mematikan. ”

Saat ini, bom pintar dikerahkan dengan target yang dipilih oleh manusia, dan bom tersebut kemudian menggunakan AI untuk merencanakan jalur dan mendarat di sasarannya. Masalahnya adalah apa yang terjadi ketika kita memutuskan untuk menghapus manusia sepenuhnya dari persamaan?

Ketika AI memilih target yang dibutuhkan manusia, serta jenis kerusakan tambahan yang dianggap dapat diterima, kita mungkin telah melewati titik tidak bisa kembali. Inilah sebabnya mengapa begitu banyak peneliti AI menentang penelitian apa pun yang terkait dengan senjata otonom dari jarak jauh.

Ada banyak masalah hanya dengan mencoba memblokir penelitian senjata otonom. Masalah pertama adalah meskipun negara-negara maju seperti Kanada, Amerika Serikat, dan sebagian besar Eropa memilih untuk menyetujui larangan tersebut, bukan berarti negara-negara nakal seperti China, Korea Utara, Iran, dan Rusia akan ikut bermain. Masalah kedua dan yang lebih besar adalah penelitian dan aplikasi AI yang dirancang untuk digunakan di satu bidang, dapat digunakan di bidang yang sama sekali tidak terkait.

Misalnya, visi komputer terus meningkat dan penting untuk mengembangkan kendaraan otonom, pengobatan presisi, dan kasus penggunaan penting lainnya. Hal ini juga pada dasarnya penting untuk drone biasa atau drone yang dapat dimodifikasi menjadi otonom. Salah satu potensi pemanfaatan teknologi drone canggih adalah pengembangan drone yang dapat memantau dan memadamkan kebakaran hutan. Ini akan sepenuhnya menghilangkan bahaya bagi petugas pemadam kebakaran. Untuk melakukan hal ini, Anda perlu membuat drone yang mampu terbang ke arah yang berbahaya, bernavigasi dalam jarak pandang rendah atau nol, dan mampu menjatuhkan air dengan presisi sempurna. Tidaklah sulit untuk menggunakan teknologi serupa ini pada drone otonom yang dirancang untuk menargetkan manusia secara selektif.

Ini adalah keadaan yang berbahaya dan pada saat ini, tidak ada yang sepenuhnya memahami implikasi dari memajukan atau mencoba memblokir pengembangan senjata otonom. Namun itu adalah sesuatu yang perlu kita awasi, tingkatkan perlindungan pelapor memungkinkan mereka di lapangan untuk melaporkan pelanggaran.

Di samping operator nakal, apa yang terjadi jika bias AI menyusup ke dalam teknologi AI yang dirancang untuk menjadi senjata otonom?

Bias AI

Salah satu ancaman AI yang paling tidak dilaporkan adalah bias AI. Ini mudah dipahami karena sebagian besar tidak disengaja. Bias AI menyelinap ketika AI meninjau data yang diberikan kepadanya oleh manusia, menggunakan pengenalan pola dari data yang diberikan ke AI, AI secara tidak benar mencapai kesimpulan yang mungkin berdampak negatif pada masyarakat. Misalnya, AI yang diberi makan literatur dari abad yang lalu tentang cara mengidentifikasi tenaga medis dapat mencapai kesimpulan seksis yang tidak diinginkan wanita selalu perawat, dan pria selalu dokter.

Skenario yang lebih berbahaya adalah kapan AI yang digunakan untuk menghukum penjahat yang dihukum bias untuk memberikan hukuman penjara yang lebih lama kepada minoritas. Algoritme penilaian risiko kriminal AI hanya mempelajari pola dalam data yang telah dimasukkan ke dalam sistem. Data ini menunjukkan bahwa secara historis minoritas tertentu lebih cenderung melakukan pelanggaran ulang, meskipun hal ini disebabkan oleh kumpulan data yang buruk yang mungkin dipengaruhi oleh profil rasial polisi. AI yang bias kemudian memperkuat kebijakan manusia yang negatif. Inilah mengapa AI harus menjadi pedoman, bukan menilai dan menjadi juri.

Kembali ke senjata otonom, jika kita memiliki AI yang bias terhadap kelompok etnis tertentu, itu dapat memilih untuk menargetkan individu tertentu berdasarkan data yang bias, dan itu dapat memastikan bahwa segala jenis kerusakan tambahan berdampak pada demografi tertentu lebih sedikit daripada yang lain. . Misalnya, ketika membidik teroris, sebelum menyerang bisa menunggu sampai teroris itu dikepung oleh orang-orang yang beragama Islam, bukan Kristen.

Untungnya, telah terbukti bahwa AI yang dirancang dengan tim yang beragam tidak terlalu rentan terhadap bias. Ini adalah alasan yang cukup bagi perusahaan untuk mencoba kapan pun memungkinkan untuk mempekerjakan tim yang beragam dan berpengetahuan luas.

Ancaman Kecerdasan Umum Buatan

Perlu disebutkan bahwa meskipun AI berkembang dengan kecepatan eksponensial, kami masih belum mencapai AGI. Kapan kita akan mencapai AGI masih diperdebatkan, dan setiap orang memiliki jawaban yang berbeda mengenai garis waktunya. Saya pribadi menganut pandangan Ray Kurzweil, penemu, futuris, dan penulis 'The Singularity is Near' yang percaya bahwa kita akan memiliki mencapai AGI pada tahun 2029.

AGI akan menjadi teknologi paling transformasional di dunia. Dalam beberapa minggu AI mencapai kecerdasan tingkat manusia, itu akan tercapai kecerdasan super yang didefinisikan sebagai kecerdasan yang jauh melampaui manusia.

Dengan tingkat kecerdasan ini, AGI dapat dengan cepat menyerap semua pengetahuan manusia dan menggunakan pengenalan pola untuk mengidentifikasi biomarker yang menyebabkan masalah kesehatan, lalu menangani kondisi tersebut dengan menggunakan ilmu data. Itu bisa membuat nanobots yang memasuki aliran darah untuk menargetkan sel kanker atau vektor serangan lainnya. Daftar pencapaian yang mampu dilakukan oleh AGI tidak terbatas. Kami sebelumnya telah menjelajahi beberapa manfaat AGI.

Masalahnya adalah manusia mungkin tidak lagi dapat mengendalikan AI. Elon Musk menjelaskannya seperti ini: ”Dengan kecerdasan buatan kami memanggil iblis.' Akankah kita dapat mengendalikan iblis ini adalah pertanyaannya?

Mencapai AGI mungkin tidak mungkin sampai AI meninggalkan pengaturan simulasi untuk benar-benar berinteraksi di dunia terbuka kita. Kesadaran diri tidak dapat dirancang, melainkan diyakini bahwa sebuah kesadaran yang muncul kemungkinan akan berkembang ketika AI memiliki tubuh robot yang menampilkan banyak aliran masukan. Input ini mungkin termasuk stimulasi taktil, pengenalan suara dengan pemahaman bahasa alami yang ditingkatkan, dan visi komputer yang ditingkatkan.

AI tingkat lanjut dapat diprogram dengan motif altruistik dan ingin menyelamatkan planet ini. Sayangnya, AI dapat digunakan ilmu data, atau bahkan a pohon keputusan untuk sampai pada kesalahan logika yang tidak diinginkan, seperti menilai perlunya mensterilkan manusia, atau memusnahkan sebagian populasi manusia untuk mengendalikan kelebihan populasi manusia.

Pemikiran dan pertimbangan yang cermat perlu dieksplorasi saat membangun AI dengan kecerdasan yang jauh melampaui manusia. Ada banyak skenario mimpi buruk yang telah dieksplorasi.

Profesor Nick Bostrom dalam argumen Paperclip Maximizer berpendapat bahwa AGI yang salah konfigurasi jika diinstruksikan untuk membuat klip kertas hanya akan menghabiskan semua sumber daya bumi untuk membuat klip kertas ini. Meskipun hal ini tampaknya agak dibuat-buat, sudut pandang yang lebih pragmatis adalah bahwa AGI dapat dikendalikan oleh negara nakal atau korporasi dengan etika yang buruk. Entitas ini dapat melatih AGI untuk memaksimalkan keuntungan, dan dalam hal ini dengan pemrograman yang buruk dan tanpa penyesalan, entitas ini dapat memilih untuk membangkrutkan pesaing, menghancurkan rantai pasokan, meretas pasar saham, melikuidasi rekening bank, atau menyerang lawan politik.

Saat itulah kita perlu mengingat bahwa manusia cenderung melakukan antropomorfisasi. Kami tidak dapat memberikan emosi, keinginan, atau keinginan tipe manusia AI. Meskipun ada manusia jahat yang membunuh untuk kesenangan, tidak ada alasan untuk percaya bahwa AI akan rentan terhadap perilaku seperti ini. Tidak terbayangkan bagi manusia untuk mempertimbangkan bagaimana AI memandang dunia.

Sebaliknya yang perlu kita lakukan adalah mengajarkan AI untuk selalu menghormati manusia. AI harus selalu membuat manusia mengonfirmasi setiap perubahan dalam pengaturan, dan harus selalu ada mekanisme yang aman dari kegagalan. Kemudian lagi, telah diperdebatkan bahwa AI hanya akan mereplikasi dirinya sendiri di cloud, dan pada saat kita menyadarinya, mungkin sudah terlambat.

Inilah sebabnya mengapa sangat penting untuk membuka sumber AI sebanyak mungkin dan melakukan diskusi rasional mengenai masalah ini.

Kesimpulan

Ada banyak tantangan untuk AI, untungnya, kita masih memiliki waktu bertahun-tahun untuk bersama-sama memikirkan jalan masa depan yang ingin diambil AGI. Dalam jangka pendek, kita harus fokus untuk menciptakan tenaga kerja AI yang beragam, yang mencakup sebanyak mungkin wanita dan pria, dan sebanyak mungkin kelompok etnis dengan beragam sudut pandang.

Kita juga harus membuat perlindungan pelapor untuk peneliti yang bekerja di bidang AI, dan kita harus mengesahkan undang-undang dan peraturan yang mencegah penyalahgunaan luas pengawasan negara atau perusahaan. Manusia memiliki kesempatan sekali seumur hidup untuk memperbaiki kondisi manusia dengan bantuan AI, kita hanya perlu memastikan bahwa kita dengan hati-hati membuat kerangka kerja masyarakat yang memungkinkan hal-hal positif, sambil mengurangi hal-hal negatif yang mencakup ancaman eksistensial.

Mitra pendiri unite.AI & anggota Dewan Teknologi Forbes, anto adalah seorang futuris yang bersemangat tentang masa depan AI & robotika.

Dia juga Pendiri Sekuritas.io, situs web yang berfokus pada investasi dalam teknologi disruptif.