Connect with us

Etika

Teknologi AI Canggih Menimbulkan Tantangan Etika – Pemimpin Pemikir

mm

Oleh Alfred Crews, Jr Wakil Presiden & Kepala Penasihat untuk Sektor Intelijen & Keamanan dari BAE Systems Inc.

Pada awal tahun ini, sebelum pandemi global, saya menghadiri Konferensi Etika Intelijen di The Citadel, Charleston, di mana kami membahas topik etika dalam pengumpulan intelijen sehubungan dengan perlindungan keamanan nasional. Di industri pertahanan, kami menyaksikan proliferasi pengetahuan, komputasi, dan teknologi canggih, terutama di bidang kecerdasan buatan (AI) dan pembelajaran mesin (ML). Namun, ada masalah signifikan ketika menerapkan AI dalam konteks pengumpulan intelijen atau pertempuran waktu nyata.

AI yang dikombinasikan dengan komputasi kuantum menimbulkan risiko

Apa yang harus kita tanyakan, analisis, dan menentukan jalur maju adalah ketika menggunakan AI yang dikombinasikan dengan kemampuan komputasi kuantum dalam proses pengambilan keputusan pada saat perang. Misalnya, ingatlah Terminator? Ketika teknologi kita melompat dan melompat, kenyataan dari apa yang disajikan Skynet ada di depan kita. Kita mungkin bertanya pada diri sendiri, “Apakah Skynet akan datang untuk kita?” Mari kita berjalan-jalan di sepanjang kenangan; mesin AI mengambil alih karena mereka memiliki kemampuan untuk berpikir dan membuat keputusan sendiri, tanpa manusia untuk mengarahkannya. Ketika mesin menyimpulkan bahwa manusia adalah bug, mereka berusaha untuk menghancurkan umat manusia. Jangan salah paham, AI memiliki potensi besar, tetapi saya percaya bahwa harus ada parameter kontrol karena faktor risiko yang terkait.

Ketidakjelasan etika AI & dilema filosofis

Saya percaya bahwa ini adalah alasan mengapa Departemen Pertahanan AS (DoD) mengeluarkan Prinsip Etika untuk AI, karena penggunaan AI menimbulkan ketidakjelasan etika dan risiko baru. Ketika menggabungkan AI dengan kemampuan komputasi kuantum, kemampuan untuk membuat keputusan berubah dan risiko kehilangan kontrol meningkat – lebih dari yang kita sadari hari ini. Komputasi kuantum membuat sistem operasi otak manusia menjadi malu karena super komputer dapat melakukan perhitungan yang jauh lebih banyak dan dengan akurasi yang lebih tinggi daripada yang dapat dilakukan oleh otak manusia.

Selain itu, penggunaan AI yang dikombinasikan dengan komputasi menimbulkan dilema filosofis. Pada titik mana dunia akan memungkinkan mesin memiliki kehendak mereka sendiri; dan, jika mesin diizinkan untuk berpikir sendiri, apakah itu berarti mesin itu telah menjadi sadar diri? Apakah menjadi sadar diri merupakan konstitusi kehidupan? Sebagai masyarakat, kita belum menentukan bagaimana mendefinisikan situasi ini. Oleh karena itu, sebagaimana adanya hari ini, mesin yang bertindak sendiri tanpa manusia untuk mengontrolnya dapat menyebabkan akibat. Apakah mesin dapat mengalahkan intervensi manusia untuk menghentikan api? Jika mesin beroperasi sendiri, apakah kita dapat mencabutnya?

Seperti yang saya lihat, menggunakan AI dari sudut pandang pertahanan sangat mudah dilakukan. Namun, bagaimana jika kita mentransfernya ke ofensif? Di ofensif, mesin akan membuat keputusan penembakan pada saat itu. Apakah mesin menembak musuh akan melanggar Konvensi Jenewa dan hukum perang? Dengan memasuki ruang ini dengan kecepatan yang cepat, dunia harus setuju bahwa penggunaan AI dan komputasi kuantum dalam pertempuran harus mematuhi hukum yang ada.

DoD memiliki posisi ketika menggunakan AI dengan sistem otonom dan menyatakan bahwa akan selalu ada orang yang terlibat dalam proses pengambilan keputusan; orang akan membuat keputusan akhir untuk menarik pelatuk senjata. Itu adalah aturan kita, tetapi apa yang terjadi jika lawan memutuskan untuk mengambil rute lain dan memiliki mesin AI yang membuat semua keputusan akhir? Kemudian mesin, yang, seperti yang kita bahas, sudah lebih cepat, lebih pintar, dan lebih akurat, akan memiliki keunggulan.

Mari kita lihat drone yang dilengkapi dengan AI dan pengenalan wajah: Drone menembak dengan kehendaknya sendiri karena target yang telah ditentukan sebelumnya dilabeli sebagai teroris. Siapa yang sebenarnya bertanggung jawab atas penembakan? Apakah ada pertanggungjawaban jika ada kesalahan yang bias?

Bias dalam AI/ML

Penelitian menunjukkan bahwa mesin kurang mungkin membuat kesalahan daripada manusia. Namun, penelitian juga membuktikan bahwa ada bias dalam pembelajaran mesin berdasarkan “guru” manusia yang mengajar mesin. Prinsip Etika AI DoD yang lima mengacu pada bias yang ada ketika menyatakan, “Departemen akan mengambil langkah-langkah yang disengaja untuk meminimalkan bias yang tidak disengaja dalam kemampuan AI.” Kami sudah tahu melalui studi yang terbukti bahwa dalam penggunaan aplikasi pengenalan wajah ada bias terhadap orang-orang berwarna dengan hasil positif palsu. Ketika seseorang membuat kode yang mengajar mesin bagaimana membuat keputusan, akan ada bias. Ini bisa tidak disengaja karena orang yang membuat AI tidak menyadari bias yang ada dalam diri mereka sendiri.

Jadi, bagaimana cara menghilangkan bias? Keluaran AI hanya sebaik input. Oleh karena itu, harus ada kontrol. Anda harus mengontrol data yang mengalir karena itu yang dapat membuat hasil AI kurang valid. Pengembang akan terus-menerus harus menulis ulang kode untuk menghilangkan bias.

Dunia untuk mendefinisikan penggunaan teknologi terbaik

Teknologi itu sendiri tidak baik atau buruk. Ini adalah bagaimana suatu bangsa menggunakannya yang dapat membuat niat terbaik menjadi salah. Ketika teknologi maju dengan cara yang mempengaruhi kehidupan manusia, dunia harus bekerja sama untuk mendefinisikan tindakan yang tepat. Jika kita menghilangkan manusia dari persamaan dalam aplikasi AI, kita juga menghilangkan jeda sebelum menarik pelatuk – kompas moral yang memandu kita; jeda ketika kita berhenti dan bertanya, “Apakah ini benar?” Mesin yang diajarkan untuk terlibat tidak akan memiliki jeda itu. Jadi, pertanyaannya adalah, di masa depan, apakah dunia akan mendukung ini? Seberapa jauh dunia akan pergi untuk memungkinkan mesin membuat keputusan pertempuran?

Alfred Crews, Jr. adalah wakil presiden dan penasihat utama untuk sektor Intelijen & Keamanan dari BAE Systems Inc, sebuah pemimpin dalam menyediakan layanan teknik sistem skala besar, integrasi, dan pemeliharaan di seluruh domain udara, darat, laut, ruang angkasa, dan cyber untuk Departemen Pertahanan AS, komunitas intelijen, lembaga sipil federal, dan pasukan yang dikerahkan di seluruh dunia. Crews mengawasi fungsi hukum, kontrol ekspor, dan etika sektor.