Connect with us

Pemimpin pemikiran

Bagaimana Mengoperasikan Etika AI?

mm

AI adalah tentang mengoptimalkan proses, bukan menghilangkan manusia dari proses tersebut. Akuntabilitas tetap sangat penting dalam gagasan bahwa AI dapat menggantikan manusia. Sementara teknologi dan sistem otomatis telah membantu kita mencapai hasil ekonomi yang lebih baik di abad terakhir, apakah mereka benar-benar dapat menggantikan layanan, kreativitas, dan pengetahuan yang mendalam? Saya masih percaya bahwa mereka tidak bisa, tetapi mereka dapat mengoptimalkan waktu yang dihabiskan untuk mengembangkan area-area tersebut.

Akuntabilitas sangat bergantung pada hak cipta, memprediksi dampak teknologi pada hak kolektif dan individu, dan memastikan keamanan dan perlindungan data yang digunakan dalam pelatihan dan berbagi saat mengembangkan model baru. Ketika kita terus maju dalam teknologi, topik etika AI menjadi semakin relevan. Ini menimbulkan pertanyaan penting tentang bagaimana kita mengatur dan mengintegrasikan AI ke dalam masyarakat sambil meminimalkan risiko potensial.

Saya bekerja erat dengan satu aspek AI—pemklonian suara. Suara adalah bagian penting dari kesamaan individu dan data biometrik yang digunakan untuk melatih model suara. Perlindungan kesamaan (pertanyaan hukum dan kebijakan), mengamankan data suara (kebijakan privasi dan keamanan siber), dan menetapkan batas-batas aplikasi pemklonian suara (pertanyaan etika untuk mengukur dampak) sangat penting untuk dipertimbangkan saat membangun produk.

Kita harus mengevaluasi bagaimana AI sejalan dengan norma dan nilai masyarakat. AI harus disesuaikan untuk sesuai dengan kerangka etika masyarakat yang ada, memastikan bahwa itu tidak mengimpor risiko tambahan atau mengancam norma masyarakat yang mapan. Dampak teknologi mencakup area di mana AI memberdayakan satu kelompok individu sementara menghilangkan yang lain. Dilema eksistensial ini muncul pada setiap tahap perkembangan dan pertumbuhan masyarakat atau penurunan. Apakah AI dapat memperkenalkan lebih banyak disinformasi ke dalam ekosistem informasi? Ya. Bagaimana kita mengelola risiko itu pada tingkat produk, dan bagaimana kita mendidik pengguna dan pembuat kebijakan tentang hal itu? Jawabannya tidak terletak pada bahaya teknologi itu sendiri, tetapi pada bagaimana kita mengemasnya menjadi produk dan layanan. Jika kita tidak memiliki cukup tenaga kerja di tim produk untuk melihat lebih jauh dan menilai dampak teknologi, kita akan terjebak dalam siklus memperbaiki kekacauan.

Integrasi AI ke dalam produk menimbulkan pertanyaan tentang keamanan produk dan pencegahan kerusakan yang terkait dengan AI. Pengembangan dan implementasi AI harus memprioritaskan keamanan dan pertimbangan etika, yang memerlukan alokasi sumber daya ke tim yang relevan.

Untuk memfasilitasi diskusi yang muncul tentang mengoperasikan etika AI, saya sarankan siklus dasar ini untuk membuat AI etis pada tingkat produk:

1. Investigasi aspek hukum AI dan bagaimana kita mengaturinya, jika peraturan ada. Ini termasuk Act on AI Uni Eropa, Digital Service Act, Undang-Undang Keselamatan Online Inggris, dan GDPR tentang privasi data. Kerangka kerja ini adalah karya yang sedang berlangsung dan memerlukan input dari pemimpin industri (teknologi muncul) dan pemimpin. Lihat poin (4) yang menyelesaikan siklus yang disarankan.

2. Pertimbangkan bagaimana kita menyesuaikan produk berbasis AI dengan norma masyarakat tanpa mengimpor lebih banyak risiko. Apakah itu mempengaruhi keamanan informasi atau sektor pekerjaan, atau apakah itu mengganggu hak cipta dan hak kekayaan intelektual? Buatlah matriks berdasarkan skenario krisis. Saya mengambil ini dari latar belakang keamanan internasional saya.

3. Tentukan bagaimana mengintegrasikan hal di atas ke dalam produk berbasis AI. Ketika AI menjadi lebih canggih, kita harus memastikan bahwa itu sejalan dengan nilai dan norma masyarakat. Kita perlu proaktif dalam menangani pertimbangan etika dan mengintegrasikannya ke dalam pengembangan dan implementasi AI. Jika produk berbasis AI, seperti AI generatif, mengancam untuk menyebarkan lebih banyak disinformasi, kita harus memperkenalkan fitur mitigasi, moderasi, batasan akses ke teknologi inti, dan berkomunikasi dengan pengguna. Sangat penting untuk memiliki tim etika AI dan keamanan di produk berbasis AI, yang memerlukan sumber daya dan visi perusahaan.

Pertimbangkan bagaimana kita dapat berkontribusi pada dan membentuk kerangka hukum. Praktik terbaik dan kerangka kebijakan bukanlah sekadar kata-kata yang sedang tren; mereka adalah alat praktis yang membantu teknologi baru berfungsi sebagai alat bantu daripada ancaman yang mengintai. Mengumpulkan pembuat kebijakan, peneliti, teknologi besar, dan teknologi muncul dalam satu ruangan sangat penting untuk menyeimbangkan kepentingan masyarakat dan bisnis di sekitar AI. Kerangka hukum harus disesuaikan dengan teknologi AI yang muncul, memastikan bahwa mereka melindungi individu dan masyarakat sambil juga memfasilitasi inovasi dan kemajuan.

Rangkuman

Ini adalah lingkaran dasar yang sangat sederhana untuk mengintegrasikan teknologi muncul berbasis AI ke dalam masyarakat kita. Ketika kita terus bergumul dengan kompleksitas etika AI, sangat penting untuk tetap berkomitmen pada menemukan solusi yang memprioritaskan keamanan, etika, dan kesejahteraan masyarakat. Dan ini bukanlah kata-kata kosong, tetapi pekerjaan yang sulit dari mengumpulkan semua teka-teki bersama setiap hari.

Kata-kata ini didasarkan pada pengalaman dan kesimpulan saya sendiri.

Anna adalah Kepala Etika dan Kemitraan di Respeecher, teknologi pengkloning suara yang telah memenangkan Emmy dan berbasis di Ukraina. Anna adalah mantan Penasihat Kebijakan di Reface, aplikasi media sintetis yang ditenagai AI dan co-pendiri teknis alat kontra disinformasi Cappture yang didanai oleh program akselerator Startup Wise Guys. Anna memiliki 11 tahun pengalaman dalam kebijakan keamanan dan pertahanan, teknologi, dan pembangunan ketahanan. Ia adalah mantan Fellow Penelitian di Pusat Internasional untuk Pertahanan dan Keamanan di Tallinn dan Institut Studi Keamanan Praha. Ia juga telah memberikan saran kepada perusahaan Ukraina besar tentang pembangunan ketahanan sebagai bagian dari Hybrid warfare Task Force di Kyiv School of Economics.