Connect with us

Pemimpin pemikiran

AI-First Berarti Safety-First

mm

Beli sepeda baru untuk seorang anak, dan sepeda itu akan mendapatkan semua perhatian – bukan helm yang mengkilap yang menyertainya. Tapi orang tua menghargai helm itu.

Aku takut banyak dari kita hari ini lebih seperti anak-anak ketika datang ke AI. Kami fokus pada betapa keren itu dan betapa cepat kita bisa pergi dengannya. Tidak terlalu banyak pada apa yang bisa kita lakukan untuk tetap aman saat menggunakannya. Ini sangat disayangkan karena kita tidak bisa memiliki manfaat satu tanpa yang lain.

Dengan sederhana, menerapkan AI tanpa merencanakan keselamatan terlebih dahulu tidak hanya berisiko. Ini adalah jalan lurus menuju tebing.

Apa yang Dimaksud dengan Keselamatan AI?

Keselamatan AI melibatkan sejumlah langkah. Tapi mungkin elemen paling penting adalah kapan untuk melakukannya. Untuk efektif, Keselamatan AI harus dirancang.

Itu berarti bahwa kita mempertimbangkan bagaimana mencegah bahaya sebelum kita mengujicobanya. Kita mencari tahu bagaimana membuat AI beroperasi dan menghasilkan hasil yang sesuai dengan nilai dan harapan sosial kita terlebih dahulu – bukan setelah kita mendapatkan hasil yang mengerikan.

Merancang untuk keselamatan AI juga termasuk memikirkan bagaimana membuatnya kuat, atau dapat berfungsi secara prediktif bahkan dalam situasi yang tidak menguntungkan. Ini berarti membuat AI transparan, sehingga keputusan AI yang diambil dapat dipahami, dapat diaudit, dan tidak bias.

Tapi itu juga termasuk melihat dunia di mana AI akan berfungsi. Apa saja pengamanan institusional dan hukum yang kita butuhkan, terutama untuk mematuhi peraturan pemerintah yang berlaku? Dan aku tidak bisa menekankan komponen orang: Apa dampak penggunaan AI akan terhadap orang-orang yang berinteraksi dengannya?

Keselamatan oleh desain berarti memasukkan keselamatan AI ke dalam semua proses, alur kerja, dan operasi kita sebelum kita mengetik prompt pertama kita.

Risiko Mengalahkan Keprihatinan

Tidak semua orang setuju. Ketika mereka mendengar “keselamatan-terlebih-dahulu”, beberapa orang mendengar “langkah dengan hati-hati dan perlahan sehingga Anda ketinggalan”. Tentu saja, itu bukan apa yang dimaksud dengan keselamatan terlebih dahulu. Ini tidak harus mematikan inovasi atau memperlambat waktu-pasar. Dan itu tidak berarti aliran tak terbatas dari pilot yang tidak pernah berkembang. Sebaliknya.

Ini berarti memahami risiko tidak merancang keselamatan ke dalam AI. Pertimbangkan beberapa contoh.

  • Deloitte’s Center for Financial Services memprediksi bahwa GenAI bisa bertanggung jawab atas kerugian penipuan yang mencapai US$40 miliar di Amerika Serikat saja pada tahun 2027, dari US$12,3 miliar pada tahun 2023, dengan CAGR 32%.
  • Keputusan yang bias. Kasus-kasus perawatan medis yang bias karena AI yang telah dilatih pada data yang bias.
  • Keputusan yang buruk yang menginspirasi keputusan buruk lainnya. Lebih buruk dari keputusan awal yang buruk yang dipicu oleh AI yang rusak, studi menunjukkan bahwa keputusan-keputusan yang rusak itu dapat menjadi bagian dari bagaimana kita berpikir dan membuat keputusan di masa depan.
  • Konsekuensi nyata. AI yang memberikan saran medis yang buruk telah bertanggung jawab atas hasil pasien yang mematikan. Masalah hukum telah timbul dari mengutip khayalan AI sebagai preseden hukum. Dan kesalahan perangkat lunak yang dihasilkan dari asisten AI yang memberikan informasi yang salah telah merusak produk perusahaan dan reputasinya dan menyebabkan ketidakpuasan pengguna yang meluas.

Dan hal-hal akan menjadi lebih menarik.

Kedatangan dan adopsi cepat AI agen, AI yang dapat berfungsi secara otonom untuk mengambil tindakan berdasarkan keputusan yang dibuatnya, akan memperbesar pentingnya merancang untuk keselamatan AI.

Sebuah agen AI yang dapat bertindak atas nama Anda bisa sangat berguna. Sebagai gantinya memberitahu Anda tentang penerbangan terbaik untuk sebuah perjalanan, itu bisa menemukannya dan memesannya untuk Anda. Jika Anda ingin mengembalikan produk, agen AI perusahaan bisa tidak hanya memberitahu Anda tentang kebijakan pengembalian dan bagaimana mengajukan pengembalian, tetapi juga menangani transaksi seluruhnya untuk Anda.

Bagus – selama agen itu tidak mengalami khayalan penerbangan atau menangani informasi keuangan Anda dengan salah. Atau salah memahami kebijakan pengembalian perusahaan dan menolak pengembalian yang valid.

Tidak terlalu sulit untuk melihat bagaimana risiko keselamatan AI saat ini bisa dengan mudah berkembang biak dengan sejumlah agen AI yang berlari-lari membuat keputusan dan bertindak, terutama karena mereka tidak mungkin bertindak sendirian. Sebagian besar nilai nyata dalam AI agen akan datang dari tim agen, di mana agen individu menangani bagian-bagian tugas dan berkolaborasi – agen ke agen – untuk menyelesaikan pekerjaan.

Jadi, bagaimana Anda menerima keselamatan AI oleh desain tanpa menghambat inovasi dan membunuh potensi nilainya?

Keselamatan oleh Desain dalam Aksi

Pemeriksaan keselamatan ad hoc bukanlah jawabannya. Tapi mengintegrasikan praktik keselamatan ke dalam setiap fase implementasi AI adalah.

Mulai dengan data. Pastikan data dilabeli, dianotasi jika perlu, bebas bias, dan berkualitas tinggi. Ini terutama benar untuk data pelatihan.

Latih model Anda dengan umpan balik manusia, karena penilaian manusia sangat penting untuk membentuk perilaku model. Reinforcement Learning with Human Feedback (RLHF) dan teknik serupa lainnya memungkinkan annotator untuk menilai dan memandu respons, membantu LLM menghasilkan output yang aman dan sesuai dengan nilai manusia.

Kemudian, sebelum Anda merilis model, uji stresnya. Tim merah yang mencoba memicu perilaku yang tidak aman dengan menggunakan prompt lawan, kasus tepi, dan upaya jailbreak dapat mengungkap kerentanan. Mendapatkan mereka diperbaiki sebelum mereka mencapai publik menjaga keselamatan sebelum ada masalah.

Sementara pengujian ini memastikan model AI Anda kuat, terus pantau mereka dengan mata pada ancaman yang muncul dan penyesuaian yang mungkin diperlukan untuk model.

Dalam nada yang sama, pantau secara teratur sumber konten dan interaksi digital untuk tanda-tanda penipuan. Secara kritis, gunakan pendekatan hibrida AI-manusia, membiarkan otomatisasi AI menangani volume data yang besar untuk dipantau, dan manusia terampil menangani tinjauan untuk penegakan dan memastikan akurasi.

Menerapkan AI agen memerlukan perawatan lebih. Sebuah persyaratan dasar: latih agen untuk mengetahui keterbatasannya. Ketika itu menghadapi ketidakpastian, dilema etika, situasi baru, atau keputusan yang sangat berisiko, pastikan itu tahu bagaimana meminta bantuan.

Juga, desain jejak ke dalam agen Anda. Ini sangat penting sehingga interaksinya hanya terjadi dengan pengguna yang diverifikasi, untuk menghindari aktor penipuan yang mempengaruhi tindakan agen.

Jika mereka tampaknya bekerja secara efektif, mungkin menggoda untuk melepaskan agen dan membiarkan mereka melakukan hal mereka. Pengalaman kami mengatakan untuk terus memantau mereka dan tugas yang mereka lakukan untuk menonton kesalahan atau perilaku yang tidak terduga. Gunakan baik pemeriksaan otomatis dan tinjauan manusia.

Pada kenyataannya, elemen penting dari keselamatan AI adalah keterlibatan manusia teratur. Manusia harus secara sengaja terlibat di mana penilaian kritis, empati, atau nuansa dan ketidakjelasan terlibat dalam keputusan atau tindakan.

Lagi, untuk jelas, ini semua adalah praktik yang Anda bangun ke dalam implementasi AI sebelumnya, oleh desain. Mereka bukan hasil dari sesuatu yang salah dan kemudian berlari untuk mencari tahu bagaimana meminimalkan kerusakan.

Apakah Ini Bekerja?

Kami telah menerapkan filosofi Keselamatan AI Pertama dan kerangka “oleh desain” dengan klien kami sepanjang munculnya GenAI dan sekarang di jalur cepat menuju AI agen. Kami menemukan bahwa, bertentangan dengan kekhawatiran tentang memperlambatnya, itu sebenarnya membantu mempercepatnya.

AI agen memiliki potensi untuk mengurangi biaya dukungan pelanggan sebesar 25-50%, misalnya, sambil meningkatkan kepuasan pelanggan. Tapi itu semua tergantung pada kepercayaan.

Manusia yang menggunakan AI harus mempercayainya, dan pelanggan yang berinteraksi dengan agen manusia yang diaktifkan AI atau dengan agen AI yang sebenarnya tidak dapat mengalami satu interaksi yang akan merusak kepercayaan mereka. Satu pengalaman buruk dapat menghancurkan kepercayaan pada sebuah merek.

Kami tidak mempercayai apa yang tidak aman. Jadi, ketika kami membangun keselamatan ke dalam setiap lapisan AI yang akan kami luncurkan, kami dapat melakukannya dengan percaya diri. Dan ketika kami siap untuk menskalakan, kami dapat melakukannya dengan cepat – dengan percaya diri.

Sementara menerapkan Keselamatan AI Pertama ke dalam praktek mungkin tampak mengintimidasi, Anda tidak sendirian. Ada banyak ahli yang dapat membantu dan mitra yang dapat berbagi apa yang telah mereka pelajari dan sedang mempelajari sehingga Anda dapat memanfaatkan nilai AI dengan aman tanpa memperlambat Anda.

AI telah menjadi perjalanan yang menyenangkan sejauh ini, dan ketika perjalanan ini mempercepat, aku merasa sangat menyenangkan. Tapi aku juga senang aku mengenakan helmku.

Joe Anderson adalah Direktur Senior Konsultasi dan Transformasi Digital di TaskUs, di mana ia memimpin strategi go-to-market dan inovasi. Ia fokus pada persimpangan AI, pengalaman pelanggan, dan operasi digital, dan memimpin praktik konsultasi AI agentic baru TaskUs.