Connect with us

Pemimpin pemikiran

Bagaimana Deepfakes yang Ditenagai AI Mengancam Integritas Pemilu — Dan Apa yang Dapat Dilakukan Tentang Hal Itu

mm

Iklan kampanye sudah cukup berantakan dan kontroversial.

Sekarang bayangkan Anda ditargetkan dengan iklan kampanye di mana seorang kandidat mengungkapkan posisi yang kuat yang dapat mempengaruhi suara Anda — dan iklan itu bahkan tidak nyata. Itu adalah deepfake.

Ini bukanlah sesuatu yang hipotetis di masa depan; deepfakes adalah masalah nyata dan luas. Kami sudah melihat “endorsment” yang dihasilkan AI membuat berita, dan apa yang kami dengar hanya menggores permukaan.

Ketika kami mendekati pemilu presiden AS 2024, kami memasuki wilayah yang belum dipetakan dalam keamanan siber dan integritas informasi. Saya telah bekerja di persimpangan keamanan siber dan AI sejak kedua konsep ini masih baru, dan saya tidak pernah melihat sesuatu seperti yang terjadi sekarang.

Evolusi cepat kecerdasan buatan — khususnya generative AI dan, tentu saja, kemudahan menciptakan deepfakes yang realistis deepfakes — telah mengubah lanskap ancaman pemilu. Kenyataan baru ini menuntut perubahan dalam asumsi dasar mengenai keamanan pemilu dan pendidikan pemilih.

AI yang Dibuat Senjata

Anda tidak perlu mengambil pengalaman pribadi saya sebagai bukti; ada banyak bukti bahwa tantangan keamanan siber yang kita hadapi saat ini berkembang dengan kecepatan yang belum pernah terjadi sebelumnya. Dalam beberapa tahun terakhir, kita telah menyaksikan transformasi dramatis dalam kemampuan dan metodologi aktor ancaman potensial. Evolusi ini mencerminkan perkembangan yang dipercepat yang kita lihat dalam teknologi AI, tetapi dengan twist yang mengkhawatirkan.

Contoh kasus:

  • Senjatakan kerentanan dengan cepat. Serangannya saat ini dapat dengan cepat mengeksploitasi kerentanan yang baru ditemukan, sering kali lebih cepat dari pada patch dapat dikembangkan dan diterapkan. Alat AI lebih lanjut mempercepat proses ini, mengurangi waktu antara penemuan kerentanan dan eksploitasi.
  • Permukaan serangan yang diperluas. Adopsi teknologi cloud yang meluas telah memperluas secara signifikan permukaan serangan potensial. Infrastruktur terdistribusi dan model tanggung jawab bersama antara penyedia cloud dan pengguna menciptakan vektor baru untuk eksploitasi jika tidak dikelola dengan baik.
  • Langkah keamanan tradisional yang ketinggalan zaman. Alat keamanan warisan seperti firewalls dan perangkat lunak antivirus kesulitan mengikuti ancaman yang berkembang, terutama dalam mendeteksi dan memitigasi konten yang dihasilkan AI.

Siapa yang Berbicara

Dalam lanskap ancaman baru ini, deepfakes mewakili tantangan yang sangat berbahaya bagi integritas pemilu. Penelitian terbaru dari Ivanti memberikan angka pada ancaman: lebih dari setengah pekerja kantor (54%) tidak menyadari bahwa AI canggih dapat meniru suara siapa saja. Kekurangan kesadaran di kalangan pemilih potensial ini sangat mengkhawatirkan karena kita mendekati siklus pemilu yang kritis.

Terdapat banyak yang dipertaruhkan.

Kesophistikasi teknologi deepfake saat ini memungkinkan aktor ancaman, baik asing maupun domestik, untuk menciptakan konten palsu yang meyakinkan dengan upaya minimal. Sebuah prompt teks sederhana sekarang dapat menghasilkan deepfake yang semakin sulit dibedakan dari konten asli. Kemampuan ini memiliki implikasi serius bagi penyebaran disinformasi dan manipulasi opini publik.

Tantangan dalam Atribusi dan Mitigasi

Atribusi adalah salah satu tantangan terbesar yang kita hadapi dengan intervensi pemilu yang dihasilkan AI. Sementara kita secara historis mengasosiasikan intervensi pemilu dengan aktor negara, demokratisasi alat AI berarti bahwa kelompok domestik, yang dipandu oleh berbagai motivasi ideologis, sekarang dapat menggunakan teknologi ini untuk mempengaruhi pemilu.

Difusi potensial aktor ancaman ini mempersulit kemampuan kita untuk mengidentifikasi dan memitigasi sumber disinformasi. Ini juga menekankan kebutuhan akan pendekatan multi-faset untuk keamanan pemilu yang melampaui langkah-langkah keamanan siber tradisional.

Upaya Terkoordinasi untuk Menjaga Integritas Pemilu

Mengatasi tantangan deepfakes yang ditenagai AI dalam pemilu akan memerlukan upaya terkoordinasi di berbagai sektor. Berikut adalah area kunci di mana kita perlu fokuskan upaya kita:

  • Keamanan shift-left untuk sistem AI. Kita perlu menerapkan prinsip-prinsip “shift-left” keamanan pada pengembangan sistem AI itu sendiri. Ini berarti mengintegrasikan pertimbangan keamanan dari tahap awal pengembangan model AI, termasuk pertimbangan untuk penggunaan potensial dalam intervensi pemilu.
  • Menerapkan konfigurasi yang aman. Sistem AI dan platform yang berpotensi digunakan untuk menghasilkan deepfakes harus memiliki konfigurasi yang aman dan kuat secara default. Ini termasuk langkah autentikasi yang kuat dan pembatasan pada jenis konten yang dapat dihasilkan.
  • Mengamankan rantai pasokan AI. Sama seperti kita fokus pada mengamankan rantai pasokan perangkat lunak, kita perlu memperluas kewaspadaan ini ke rantai pasokan AI. Ini termasuk memeriksa dataset yang digunakan untuk melatih model AI dan algoritma yang digunakan dalam sistem AI generatif.
  • Kemampuan deteksi yang ditingkatkan. Kita perlu berinvestasi dan mengembangkan alat deteksi canggih yang dapat mengidentifikasi konten yang dihasilkan AI, terutama dalam konteks informasi yang terkait dengan pemilu. Ini kemungkinan akan melibatkan penggunaan AI itu sendiri untuk melawan disinformasi yang dihasilkan AI.
  • Pendidikan dan kesadaran pemilih. Komponen penting dari pertahanan kita melawan deepfakes adalah pemilih yang terdidik. Kita perlu program pendidikan yang komprehensif untuk membantu pemilih memahami keberadaan dan dampak potensial konten yang dihasilkan AI, dan untuk memberikan mereka alat untuk mengevaluasi kritis informasi yang mereka temui.
  • Kolaborasi antar sektor. Sektor teknologi, terutama perusahaan IT dan keamanan siber, harus bekerja sama dengan badan pemerintah, pejabat pemilu, dan organisasi media untuk menciptakan front bersatu melawan intervensi pemilu yang didorong AI.

Apa yang Sekarang, dan Apa yang Berikutnya

Ketika kita menerapkan strategi ini, sangat penting bahwa kita terus mengukur efektivitasnya. Ini akan memerlukan metrik dan alat pemantauan baru yang dirancang khusus untuk melacak dampak konten yang dihasilkan AI pada wacana pemilu dan perilaku pemilih.

Kita juga harus siap untuk menyesuaikan strategi kita dengan cepat. Bidang AI berkembang dengan kecepatan yang luar biasa, dan langkah pertahanan kita harus berkembang dengan kecepatan yang sama. Ini mungkin melibatkan penggunaan AI itu sendiri untuk menciptakan langkah keamanan yang lebih kuat dan adaptif.

Tantangan deepfakes yang ditenagai AI dalam pemilu mewakili bab baru dalam keamanan siber dan integritas informasi. Untuk mengatasi tantangan ini, kita harus berpikir di luar paradigma keamanan tradisional dan mempromosikan kolaborasi di berbagai sektor dan disiplin. Tujuan: untuk memanfaatkan kekuatan AI untuk kepentingan proses demokratis sambil memitigasi potensi bahayanya. Ini bukan hanya tantangan teknis, tetapi juga tantangan sosial yang akan memerlukan kewaspadaan, adaptasi, dan kerja sama yang berkelanjutan.

Integritas pemilu kita — dan oleh karena itu, kesehatan demokrasi kita — bergantung pada kemampuan kita untuk menghadapi tantangan ini secara langsung. Ini adalah tanggung jawab yang jatuh pada kita semua: teknolog, pembuat kebijakan, dan warga negara.

Dr. Srinivas Mukkamala adalah Chief Product Officer untuk Ivanti. Ia adalah pendiri dan CEO untuk RiskSense hingga Ivanti mengakuisisi perusahaan tersebut pada Agustus 2021.

Ia bergabung dengan Ivanti sebagai pemimpin untuk solusi keamanan Ivanti dan telah memainkan peran penting dalam mengintegrasikan portofolio dan tim RiskSense ke dalam strategi Ivanti. Ia adalah otoritas yang diakui dalam komunitas kecerdasan buatan (AI) dan jaringan saraf dan merupakan bagian dari think tank yang berkolaborasi dengan Departemen Pertahanan AS untuk menerapkan konsep-konsep ini pada masalah keamanan siber.

Dr. Mukkamala bertanggung jawab untuk Manajemen Produk untuk semua Solusi Ivanti dan akan terus mendorong inovasi dalam solusi terintegrasi di seluruh pilar perusahaan: ITSM, Keamanan, dan UEM.​

Dr. Mukkamala juga merupakan peneliti utama untuk CACTUS (Analisis Komputasi Terorisme Siber terhadap AS) dan memegang paten pada Agen Pintar untuk Sistem Deteksi Intrusi Terdistribusi dan Metode Praktik.​

Dr. Mukkamala memegang gelar PhD dan Master of Science dalam Ilmu Komputer dari New Mexico Institute of Mining and Technology.