Kecerdasan buatan
Kecerdasan Buatan dan Keamanan Nasional: Medan Pertempuran Baru

Kecerdasan buatan sedang mengubah cara negara melindungi diri. Ini telah menjadi penting untuk keamanan siber, pengembangan senjata, kontrol perbatasan, dan bahkan diskusi publik. Sementara itu menawarkan manfaat strategis yang signifikan, itu juga memperkenalkan banyak risiko. Artikel ini memeriksa bagaimana kecerdasan buatan mengubah keamanan, hasil saat ini, dan pertanyaan sulit yang diajukan oleh teknologi baru ini.
-
Keamanan Siber: Pertarungan Kecerdasan Buatan melawan Kecerdasan Buatan
Sebagian besar serangan saat ini dimulai di ruang siber. Penjahat tidak lagi menulis setiap email phishing dengan tangan. Mereka menggunakan model bahasa untuk mengdraft pesan yang terdengar ramah dan alami. Pada 2024, sebuah geng menggunakan video deep-fake dari seorang kepala keuangan mencuri 25 juta dolar dari perusahaan mereka sendiri. Video itu terlihat sangat nyata sehingga seorang karyawan mengikuti perintah palsu tanpa keraguan. Penyerang sekarang memberi makan model bahasa besar dengan resume yang bocor atau data LinkedIn untuk membuat umpan pribadi. Beberapa kelompok bahkan menggunakan kecerdasan buatan generatif untuk membuat bug perangkat lunak atau menulis potongan malware.
Pembela juga menggunakan kecerdasan buatan untuk melindungi diri dari serangan ini. Tim keamanan memberi makan log jaringan, klik pengguna, dan laporan ancaman global ke dalam alat kecerdasan buatan. Perangkat lunak ini belajar tentang “aktivitas normal” dan memperingatkan ketika terjadi sesuatu yang mencurigakan. Ketika intrusi terdeteksi, sistem kecerdasan buatan memutuskan komputer yang dicurigai untuk membatasi kerusakan yang akan menyebar jika manusia bereaksi lebih lambat.
-
Senjata Otonom
Kecerdasan buatan juga menginjakkan kaki di medan perang fisik. Di Ukraina, drone menggunakan visi onboard untuk menemukan truk bahan bakar atau situs radar sebelum mereka meledak. Amerika Serikat telah menggunakan kecerdasan buatan untuk membantu mengidentifikasi target untuk serangan udara di tempat-tempat seperti Suriah. Tentara Israel baru-baru ini menggunakan platform pemilihan target kecerdasan buatan untuk mengatur ribuan gambar udara untuk menandai kemungkinan persembunyian militan. Cina, Rusia, Turki, dan Inggris telah menguji ” amunisi mengembara” yang mengelilingi suatu area sampai kecerdasan buatan menemukan target. Teknologi ini dapat membuat operasi militer lebih presisi dan mengurangi risiko bagi tentara. Tetapi mereka juga membawa kekhawatiran serius. Siapa yang bertanggung jawab ketika algoritma memilih target yang salah? Beberapa ahli khawatir tentang ” perang kilat” di mana mesin bereaksi terlalu cepat bagi diplomat untuk menghentikannya. Banyak ahli menyerukan aturan internasional untuk mengontrol senjata otonom, tetapi negara-negara khawatir ketinggalan jika mereka berhenti.
-
Pengawasan dan Intelijen
Layanan intelijen dulu mengandalkan tim analis untuk membaca laporan atau menonton umpan video. Sekarang mereka mengandalkan kecerdasan buatan untuk menyaring jutaan gambar dan pesan setiap jam. Di beberapa negara, seperti Cina, kecerdasan buatan melacak perilaku warga, dari hal-hal kecil seperti melanggar lalu lintas hingga apa yang mereka lakukan secara online. Demikian pula, di perbatasan AS-Meksiko, menara surya dengan kamera dan sensor termal memindai gurun yang kosong. Kecerdasan buatan menemukan figur yang bergerak, menandainya sebagai manusia atau hewan, lalu memperingatkan petugas patroli. ” dinding virtual” ini mencakup area yang luas yang tidak mungkin dapat ditonton oleh manusia seorang diri.
Sementara alat-alat ini memperluas cakupan, mereka juga memperbesar kesalahan. Sistem pengenalan wajah telah terbukti mengidentifikasi salah wanita dan orang dengan kulit gelap dengan tingkat yang lebih tinggi daripada pria kulit putih. Satu kesalahan pertandingan dapat menyebabkan orang yang tidak bersalah menghadapi pemeriksaan atau penahanan tambahan. Pembuat kebijakan meminta algoritma yang diaudit, jalur banding yang jelas, dan tinjauan manusia sebelum mengambil tindakan yang kuat.
-
Perang Informasi
Konflik modern tidak hanya dilakukan dengan rudal dan kode, tetapi juga dengan narasi. Pada Maret 2024, sebuah video palsu menunjukkan presiden Ukraina memerintahkan tentara untuk menyerah; itu menyebar secara online sebelum pembuktian fakta membantahnya. Selama pertempuran Israel-Hamas 2023, palsu yang dihasilkan kecerdasan buatan yang mendukung kebijakan satu pihak membanjiri aliran sosial, untuk mengarahkan opini.
Informasi palsu menyebar lebih cepat daripada pemerintah dapat memperbaikinya. Ini terutama problematis selama pemilu, di mana konten yang dihasilkan kecerdasan buatan sering digunakan untuk mempengaruhi pemilih. Pemilih menemukan sulit untuk membedakan antara gambar atau video yang nyata dan yang dihasilkan kecerdasan buatan. Sementara pemerintah dan perusahaan teknologi bekerja pada proyek kontra-kecerdasan buatan untuk memindai sidik jari digital kecerdasan buatan, perlombaan ini ketat; pembuat palsu memperbaiki palsu mereka secepat pembela memperbaiki filter mereka.
-
Dukungan Keputusan
Tentara dan badan mengumpulkan sejumlah besar data termasuk jam-jam video drone, log pemeliharaan, citra satelit, dan laporan sumber terbuka. Kecerdasan buatan membantu dengan mengatur dan menyoroti informasi yang relevan. NATO baru-baru ini mengadopsi sistem yang terinspirasi oleh Proyek Maven AS. Ini menghubungkan database dari 30 negara anggota, memberikan perencana dengan pandangan yang terpadu. Sistem ini menyarankan kemungkinan gerakan musuh dan mengidentifikasi kemungkinan kekurangan pasokan. Komando Operasi Khusus AS menggunakan kecerdasan buatan untuk membantu mengdraft sebagian dari anggaran tahunan dengan memindai faktur dan merekomendasikan realokasi. Platform kecerdasan buatan serupa memperkirakan kegagalan mesin, menjadwalkan perbaikan sebelumnya, dan mengkustomisasi simulasi penerbangan untuk kebutuhan pilot individual.
-
Penegakan Hukum dan Kontrol Perbatasan
Pasukan polisi dan petugas imigrasi menggunakan kecerdasan buatan untuk tugas yang memerlukan perhatian konstan. Di bandara sibuk, kios biometrik mengkonfirmasi identitas penumpang untuk membuat proses lebih efisien. Perangkat lunak analisis pola memilih catatan perjalanan yang mengisyaratkan perdagangan manusia atau penyelundupan narkoba. Pada 2024, satu kemitraan Eropa menggunakan alat tersebut untuk mengungkap cincin yang memindahkan migran melalui kapal kargo. Alat-alat ini dapat membuat perbatasan lebih aman dan membantu menangkap penjahat. Tetapi ada kekhawatiran juga. Pengenalan wajah terkadang gagal untuk beberapa kelas orang dengan representasi rendah, yang dapat menyebabkan kesalahan. Privasi adalah masalah lain. Pertanyaan kunci adalah apakah kecerdasan buatan harus digunakan untuk memantau semua orang dengan begitu dekat.
Garisan Bawah
Kecerdasan buatan sedang mengubah keamanan nasional dengan banyak cara, menawarkan baik kesempatan dan risiko. Ini dapat melindungi negara dari ancaman siber, membuat operasi militer lebih presisi, dan meningkatkan pengambilan keputusan. Tetapi itu juga dapat menyebarkan kebohongan, menginvasi privasi, atau membuat kesalahan mematikan. Ketika kecerdasan buatan menjadi lebih umum dalam keamanan, kita perlu menemukan keseimbangan antara menggunakan kekuatannya untuk kebaikan dan mengontrol bahayanya. Ini berarti negara-negara harus bekerja sama dan menetapkan aturan yang jelas untuk penggunaan kecerdasan buatan. Pada akhirnya, kecerdasan buatan adalah alat, dan bagaimana kita menggunakannya akan mendefinisikan kembali masa depan keamanan. Kita harus berhati-hati untuk menggunakannya dengan bijak, sehingga membantu kita lebih dari membahayakan kita.










