Connect with us

Pemimpin pemikiran

Membuka Kotak Hitam pada Kemampuan AI untuk Dijelaskan

mm

Kecerdasan Buatan (AI) telah menjadi bagian integral dari hampir semua aspek kehidupan sehari-hari, dari rekomendasi pribadi hingga pengambilan keputusan kritis. Ini sudah menjadi hal yang pasti bahwa AI akan terus berkembang, dan dengan itu, ancaman yang terkait dengan AI juga akan menjadi lebih canggih. Ketika bisnis menerapkan pertahanan yang ditenagai AI untuk merespons kompleksitas yang meningkat, langkah selanjutnya menuju promosi budaya keamanan di seluruh organisasi adalah meningkatkan kemampuan AI untuk dijelaskan.

Sementara sistem ini menawarkan kemampuan yang mengesankan, mereka sering berfungsi sebagai “kotak hitam“—menghasilkan hasil tanpa wawasan yang jelas tentang bagaimana model tersebut sampai pada kesimpulan yang dilakukannya. Masalah sistem AI membuat pernyataan palsu atau mengambil tindakan palsu dapat menyebabkan masalah yang signifikan dan gangguan bisnis potensial. Ketika perusahaan membuat kesalahan karena AI, pelanggan dan konsumen mereka menuntut penjelasan dan segera setelah itu, solusi.

Tapi apa yang menjadi penyebabnya? Seringkali, data yang buruk digunakan untuk pelatihan. Misalnya, sebagian besar teknologi GenAI publik dilatih pada data yang tersedia di Internet, yang sering tidak diverifikasi dan tidak akurat. Sementara AI dapat menghasilkan respons yang cepat, akurasi respons tersebut tergantung pada kualitas data yang digunakannya.

Kesalahan AI dapat terjadi dalam berbagai contoh, termasuk pembuatan skrip dengan perintah yang salah dan keputusan keamanan yang salah, atau menolak seorang karyawan untuk bekerja pada sistem bisnis mereka karena tuduhan palsu yang dibuat oleh sistem AI. Semua ini memiliki potensi untuk menyebabkan gangguan bisnis yang signifikan. Ini hanya salah satu dari banyak alasan mengapa memastikan transparansi adalah kunci untuk membangun kepercayaan pada sistem AI.

Membangun Kepercayaan

Kita hidup dalam budaya di mana kita mempercayai berbagai sumber dan informasi. Namun, pada saat yang sama, kita menuntut bukti dan validasi lebih dan lebih, memerlukan validasi terus-menerus dari berita, informasi, dan klaim. Ketika datang ke AI, kita mempercayai sistem yang memiliki potensi untuk tidak akurat. Lebih penting lagi, mustahil untuk mengetahui apakah tindakan yang diambil oleh sistem AI akurat tanpa transparansi tentang dasar keputusan yang dibuat. Bagaimana jika sistem AI keamanan siber Anda mematikan mesin, tetapi itu membuat kesalahan dalam menafsirkan tanda-tanda? Tanpa wawasan tentang informasi yang menyebabkan sistem membuat keputusan itu, tidak ada cara untuk mengetahui apakah itu membuat keputusan yang tepat.

Sementara gangguan bisnis sangat menjengkelkan, salah satu kekhawatiran yang lebih signifikan dengan penggunaan AI adalah privasi data. Sistem AI, seperti ChatGPT, adalah model pembelajaran mesin yang mendapatkan jawaban dari data yang diterimanya. Oleh karena itu, jika pengguna atau pengembang secara tidak sengaja memberikan informasi sensitif, model pembelajaran mesin mungkin menggunakan data tersebut untuk menghasilkan respons kepada pengguna lain yang mengungkapkan informasi rahasia. Kesalahan ini memiliki potensi untuk sangat mengganggu efisiensi perusahaan, profitabilitas, dan yang paling penting, kepercayaan pelanggan. Sistem AI dimaksudkan untuk meningkatkan efisiensi dan memudahkan proses, tetapi dalam kasus di mana validasi terus-menerus diperlukan karena output tidak dapat dipercaya, organisasi tidak hanya membuang waktu tetapi juga membuka pintu untuk kerentanan potensial.

Melatih Tim untuk Penggunaan AI yang Bertanggung Jawab

Untuk melindungi organisasi dari risiko potensial penggunaan AI, profesional TI memiliki tanggung jawab penting untuk melatih rekan mereka dengan cukup untuk memastikan bahwa AI digunakan secara bertanggung jawab. Dengan melakukan ini, mereka membantu menjaga organisasi mereka aman dari serangan siber yang mengancam kelangsungan dan profitabilitas mereka.

Namun, sebelum melatih tim, pemimpin TI perlu menyelaraskan secara internal untuk menentukan sistem AI mana yang akan sesuai untuk organisasi mereka. Terburu-buru ke dalam AI hanya akan berakhir dengan kegagalan nantinya, jadi mulailah dengan kecil, fokus pada kebutuhan organisasi. Pastikan standar dan sistem yang dipilih sesuai dengan tumpukan teknologi dan tujuan perusahaan saat ini, dan bahwa sistem AI memenuhi standar keamanan yang sama seperti vendor lain yang dipilih.

Setelah sistem dipilih, profesional TI dapat memulai memberi tim mereka paparan pada sistem ini untuk memastikan kesuksesan. Mulailah dengan menggunakan AI untuk tugas kecil dan lihat di mana itu berfungsi dengan baik dan di mana tidak, dan pelajari apa potensi bahaya atau validasi yang perlu diterapkan. Kemudian perkenalkan penggunaan AI untuk meningkatkan pekerjaan, memungkinkan resolusi self-service yang lebih cepat, termasuk pertanyaan “bagaimana” sederhana. Dari sana, dapat diajarkan bagaimana meletakkan validasi. Ini berharga karena kita akan mulai melihat lebih banyak pekerjaan menjadi tentang meletakkan kondisi batas dan validasi bersama, dan sudah terlihat dalam pekerjaan seperti menggunakan AI untuk membantu menulis perangkat lunak.

Selain langkah-langkah yang dapat dilakukan untuk melatih anggota tim, memulai dan mendorong diskusi juga sangat penting. Dorong dialog terbuka, didorong oleh data, tentang bagaimana AI melayani kebutuhan pengguna – apakah itu memecahkan masalah dengan akurat dan lebih cepat, apakah kita meningkatkan produktivitas untuk perusahaan dan pengguna akhir, apakah skor NPS pelanggan kita meningkat karena alat yang didorong AI ini? Jelaskan tentang return on investment (ROI) dan jaga itu tetap di depan. Komunikasi yang jelas akan memungkinkan kesadaran tentang penggunaan yang bertanggung jawab untuk tumbuh, dan ketika anggota tim memahami bagaimana sistem AI bekerja, mereka lebih mungkin untuk menggunakannya secara bertanggung jawab.

Bagaimana Mencapai Transparansi dalam AI

Meskipun melatih tim dan meningkatkan kesadaran sangat penting, untuk mencapai transparansi dalam AI, sangat penting bahwa ada lebih banyak konteks sekitar data yang digunakan untuk melatih model, memastikan bahwa hanya data berkualitas yang digunakan. Mudah-mudahan, suatu hari nanti akan ada cara untuk melihat bagaimana sistem beralasan sehingga kita dapat sepenuhnya mempercayainya. Tapi sampai saat itu, kita memerlukan sistem yang dapat bekerja dengan validasi dan guardrails dan membuktikan bahwa mereka mematuhinya.

Sementara transparansi penuh akan akhirnya membutuhkan waktu untuk dicapai, pertumbuhan yang cepat dari AI dan penggunaannya membuat hal ini perlu untuk bekerja dengan cepat. Ketika model AI terus meningkat dalam kompleksitas, mereka memiliki kekuatan untuk membuat perbedaan besar bagi kemanusiaan, tetapi konsekuensi dari kesalahan mereka juga tumbuh. Sebagai hasilnya, memahami bagaimana sistem ini sampai pada keputusan mereka sangat berharga dan perlu untuk tetap efektif dan dapat dipercaya. Dengan fokus pada sistem AI yang transparan, kita dapat memastikan bahwa teknologi ini seberguna yang dimaksudkan sambil tetap tidak bias, etis, efisien, dan akurat.

Manny Rivelo adalah CEO dari ConnectWise, di mana ia berkomitmen pada misi perusahaan untuk memberdayakan penyedia layanan terkelola (MSPs) dengan perangkat lunak, layanan, dan komunitas yang tak tertandingi untuk mencapai visi sukses mereka yang paling ambisius. Sebagai mantan CEO dari Forcepoint, Rivelo memimpin transformasi bisnis menjadi pemain utama di ruang keamanan siber, mengarahkan pertumbuhan dan inovasi menghadapi ancaman siber yang terus berkembang. Sepanjang karirnya, Manny Rivelo telah memperoleh reputasi sebagai pemimpin yang berfokus pada hasil dan menciptakan model bisnis yang berkelanjutan serta mengarahkan nilai jangka panjang dalam lanskap teknologi yang terus berubah.