potongan Apa itu AI yang Bertanggung Jawab? Prinsip, Tantangan, & Manfaat - Unite.AI
Terhubung dengan kami

AI 101

Apa itu AI yang Bertanggung Jawab? Prinsip, Tantangan, & Manfaat

mm
Updated on
Seseorang memegang bola dunia di tangannya sambil berdiri di ladang.

AI yang bertanggung jawab (RAI) mengacu pada perancangan dan penerapan sistem AI yang transparan, tidak memihak, akuntabel, dan mengikuti pedoman etis. Karena sistem AI menjadi lebih kuat dan lazim, memastikannya dikembangkan secara bertanggung jawab dan mengikuti panduan keselamatan dan etika sangatlah penting.

Kesehatan, Transportasi, Manajemen Jaringan, dan Pengawasan aplikasi AI yang kritis terhadap keselamatan di mana kegagalan sistem dapat memiliki konsekuensi yang parah. Perusahaan besar menyadari bahwa RAI sangat penting untuk memitigasi risiko teknologi. Padahal menurut laporan MIT Sloan/BCG yang mencakup 1093 responden, 54% perusahaan tidak memiliki keahlian dan bakat AI yang bertanggung jawab.

Meskipun pemimpin pemikiran dan organisasi telah mengembangkan prinsip untuk AI yang bertanggung jawab, memastikan pengembangan sistem AI yang bertanggung jawab masih menghadirkan tantangan. Mari jelajahi ide ini secara mendetail:

5 Prinsip untuk AI yang Bertanggung Jawab

1. Keadilan

Teknolog harus merancang prosedur sehingga sistem AI memperlakukan semua individu dan kelompok secara adil tanpa bias. Oleh karena itu, keadilan adalah persyaratan utama dalam aplikasi pengambilan keputusan berisiko tinggi.

Keadilan didefinisikan sebagai:

“Meneliti dampak pada berbagai kelompok demografis dan memilih salah satu dari beberapa definisi matematis tentang keadilan kelompok yang akan cukup memenuhi persyaratan hukum, budaya, dan etika yang diinginkan.”

2. Akuntabilitas

Akuntabilitas berarti individu dan organisasi yang mengembangkan dan menerapkan sistem AI harus bertanggung jawab atas keputusan dan tindakan mereka. Tim yang menerapkan sistem AI harus memastikan bahwa sistem AI mereka transparan, dapat ditafsirkan, dapat diaudit, dan tidak merugikan masyarakat.

Akuntabilitas meliputi tujuh komponen:

  1. Konteks (tujuan yang memerlukan akuntabilitas)
  2. Rentang (subjek akuntabilitas)
  3. Agen (siapa yang bertanggung jawab?)
  4. Forum (kepada siapa pihak yang bertanggung jawab harus melapor)
  5. Standar (kriteria akuntabilitas)
  6. Proses (metode akuntabilitas)
  7. Implikasi (konsekuensi akuntabilitas)

3. Transparansi

Transparansi berarti alasan di balik pengambilan keputusan dalam sistem AI jelas dan dapat dipahami. Sistem AI transparan dapat dijelaskan.

Menurut Daftar Penilaian Kecerdasan Buatan Tepercaya (ALTAI), transparansi memiliki tiga elemen kunci:

  1. Ketertelusuran (data, langkah prapemrosesan, dan model dapat diakses)
  2. Dapat dijelaskan (alasan di balik pengambilan keputusan/prediksi jelas)
  3. Komunikasi Terbuka (mengenai keterbatasan sistem AI)

4. Pribadi

Privasi adalah salah satu prinsip utama AI yang bertanggung jawab. Ini mengacu pada perlindungan informasi pribadi. Prinsip ini memastikan bahwa informasi pribadi seseorang dikumpulkan dan diproses dengan persetujuan dan dijauhkan dari tangan orang yang tidak puas.

Terbukti baru-baru ini, ada kasus Clearview, sebuah perusahaan yang membuat model pengenalan wajah untuk penegak hukum dan universitas. pengawas data Inggris menggugat Clearview AI sebesar £ 7.5 juta untuk mengumpulkan gambar penduduk Inggris dari media sosial tanpa persetujuan untuk membuat database 20 miliar gambar.

5. Keamanan

Keamanan berarti memastikan bahwa sistem AI aman dan tidak mengancam masyarakat. Contoh ancaman keamanan AI adalah serangan permusuhan. Serangan berbahaya ini mengelabui model ML agar membuat keputusan yang salah. Melindungi sistem AI dari serangan dunia maya sangat penting untuk AI yang bertanggung jawab.

4 Tantangan Utama & Risiko AI yang Bertanggung Jawab

1. bias

Bias manusia terkait usia, jenis kelamin, kebangsaan, dan ras dapat memengaruhi pengumpulan data, yang berpotensi mengarah pada model AI yang bias. Studi Departemen Perdagangan AS menemukan bahwa pengenalan wajah AI salah mengidentifikasi orang kulit berwarna. Oleh karena itu, menggunakan AI untuk pengenalan wajah dalam penegakan hukum dapat menyebabkan penangkapan yang salah. Juga, membuat model AI yang adil itu menantang karena memang ada 21 parameter yang berbeda untuk mendefinisikannya. Jadi, ada trade-off; memuaskan satu parameter AI yang adil berarti mengorbankan yang lain.

2. Interpretabilitas

Interpretabilitas merupakan tantangan penting dalam mengembangkan AI yang bertanggung jawab. Ini mengacu pada pemahaman bagaimana model pembelajaran mesin mencapai kesimpulan tertentu.

Deep neural network kurang dapat ditafsirkan karena beroperasi sebagai Kotak Hitam dengan banyak lapisan neuron tersembunyi, sehingga sulit untuk memahami proses pengambilan keputusan. Ini bisa menjadi tantangan dalam pengambilan keputusan berisiko tinggi seperti perawatan kesehatan, keuangan, dll.

Selain itu, memformalkan interpretabilitas dalam model ML menantang karena memang demikian subyektif dan khusus domain.

3. Tata Kelola

Tata kelola mengacu pada seperangkat aturan, kebijakan, dan prosedur yang mengawasi pengembangan dan penerapan sistem AI. Baru-baru ini, ada kemajuan yang signifikan dalam wacana tata kelola AI, dengan organisasi menyajikan kerangka kerja dan pedoman etika.

Pedoman etika untuk AI yang dapat dipercaya oleh UEKerangka Kerja Etika AI Australia, dan Prinsip AI OECD adalah contoh kerangka tata kelola AI.

Tetapi kemajuan pesat dalam AI dalam beberapa tahun terakhir dapat melampaui kerangka tata kelola AI ini. Untuk tujuan ini, perlu ada kerangka kerja yang menilai keadilan, interpretabilitas, dan etika sistem AI.

4. Regulasi

Ketika sistem AI semakin lazim, perlu ada regulasi untuk mempertimbangkan nilai-nilai etika dan sosial. Mengembangkan regulasi yang tidak menghambat inovasi AI merupakan tantangan penting dalam AI yang bertanggung jawab.

Bahkan dengan Peraturan Perlindungan Data Umum (GDPR), Undang-Undang Privasi Konsumen California (CCPA), dan Undang-undang Perlindungan Informasi Pribadi (PIPL) sebagai badan pengatur, peneliti AI menemukan bahwa 97% situs web UE gagal mematuhi persyaratan kerangka hukum GDPR.

Selain itu, legislator menghadapi a tantangan yang signifikan dalam mencapai konsensus tentang definisi AI yang mencakup sistem AI klasik dan aplikasi AI terbaru.

3 Manfaat Utama AI yang Bertanggung Jawab

1. Mengurangi Bias

AI yang bertanggung jawab mengurangi bias dalam proses pengambilan keputusan, membangun kepercayaan pada sistem AI. Mengurangi bias dalam sistem AI dapat memberikan sistem layanan kesehatan yang adil dan merata serta mengurangi bias dalam sistem berbasis AI jasa keuangan dan sebagainya

2. Peningkatan Transparansi

AI yang bertanggung jawab membuat aplikasi AI transparan yang membangun kepercayaan pada sistem AI. Sistem AI transparan mengurangi risiko kesalahan dan penyalahgunaan. Transparansi yang ditingkatkan membuat audit sistem AI lebih mudah, memenangkan kepercayaan pemangku kepentingan, dan dapat menghasilkan sistem AI yang akuntabel.

3. Keamanan yang lebih baik

Aplikasi AI yang aman memastikan privasi data, menghasilkan keluaran yang dapat dipercaya dan tidak berbahaya, serta aman dari serangan dunia maya.

Raksasa teknologi suka Microsoft dan Google, yang berada di garis depan pengembangan sistem AI, telah mengembangkan prinsip AI yang Bertanggung Jawab. AI yang bertanggung jawab memastikan bahwa inovasi dalam AI tidak berbahaya bagi individu dan masyarakat.

Pemimpin pemikiran, peneliti, organisasi, dan otoritas hukum harus terus merevisi literatur AI yang bertanggung jawab untuk memastikan masa depan yang aman bagi inovasi AI.

Untuk konten terkait AI lainnya, kunjungi bersatu.ai.