Etika
Andrew Pery, Evangelis Etika, ABBYY – Seri Wawancara

Andrew Pery, adalah Evangelis Etika di ABBYY, sebuah perusahaan kecerdasan digital. Mereka memberdayakan organisasi untuk mengakses wawasan berharga, namun seringkali sulit diperoleh, ke dalam operasi mereka yang memungkinkan transformasi bisnis yang sebenarnya.
ABBYY baru-baru ini meluncurkan Inisiatif Global untuk Meningkatkan Pengembangan Kecerdasan Buatan yang Dapat Dipercaya. Kami memutuskan untuk mengajukan pertanyaan kepada Andrew tentang etika dalam AI, penyalahgunaan AI, dan apa yang dapat dilakukan industri AI tentang kekhawatiran ini ke depan.
Apa yang awalnya membangkitkan minat Anda dalam etika AI?
Apa yang awalnya membangkitkan minat saya dalam etika AI adalah minat yang mendalam dalam persimpangan hukum dan teknologi AI. Saya memulai karir saya di sistem peradilan pidana, mewakili terdakwa yang tidak mampu yang tidak memiliki kemampuan finansial untuk membayar jasa hukum. Kemudian saya beralih ke teknologi dengan fokus pada penerapan pencarian lanjutan dan AI dalam praktik hukum. Sebagai seorang profesional privasi data yang bersertifikat, saya sangat bersemangat tentang hukum privasi dan penggunaan teknologi AI yang tepat yang sejalan dengan dan meningkatkan hak-hak privasi.
Teknologi pengenalan wajah sering disalahgunakan oleh sumber otoritas termasuk pemerintah AS. Seberapa besar kekhawatiran sosial ini seharusnya?
Implikasi teknologi pengenalan wajah seharusnya menjadi kekhawatiran sosial yang signifikan karena teknologi ini dapat memengaruhi banyak hak dasar termasuk hak ekonomi, sosial, dan keamanan.
Terdapat bukti yang jelas dan kuat bahwa algoritma pengenalan wajah tidak dapat diandalkan. Sebuah studi NIST tentang algoritma pengenalan wajah menemukan bahwa orang Afrika-Amerika hingga 100 kali lebih mungkin untuk salah diidentifikasi. Sebuah studi serupa oleh Sekolah Hukum Georgetown menemukan bahwa algoritma pengenalan wajah berdasarkan foto wajah menghasilkan persentase tinggi false positif yang terkait dengan individu Afrika-Amerika, dan sebuah studi MIT 2018 tentang Perangkat Lunak Pengenalan Wajah Amazon menemukan bahwa sementara pria kulit putih diidentifikasi dengan akurat 99% dari waktu, individu kulit gelap menghasilkan hingga 35% false positif.
Oleh karena itu, regulator mulai mengambil langkah untuk melarang penggunaan teknologi pengenalan wajah, terutama dalam konteks pengawasan dan profil. Misalnya, Senat California meloloskan larangan penggunaan teknologi pengenalan wajah dan metode pengawasan biometrik lainnya.
Terdapat juga momentum dalam komunitas teknologi untuk menghentikan pemasaran perangkat lunak pengenalan wajah. IBM mengumumkan bahwa mereka akan berhenti menjual perangkat lunak pengenalan wajah, dengan alasan bahwa itu melanggar hak asasi manusia dan kebebasan dasar. Microsoft juga mengumumkan keputusan serupa untuk menghentikan penjualan teknologi pengenalan wajah, juga dengan alasan hak asasi manusia yang mendasar.
Perangkat Lunak COMPAS yang telah digunakan oleh pengadilan AS untuk penilaian risiko kriminal telah salah mengidentifikasi pelanggar minoritas yang terlihat sebagai lebih mungkin untuk mengulangi kejahatan daripada pelanggar kulit putih. Mengetahui hal ini, apakah menggunakan AI dalam pengadilan seharusnya menjadi pilihan?
Studi tentang COMPAS menemukan bahwa itu tidak lebih baik dalam memprediksi kejahatan daripada orang-orang yang memilih secara acak. Sementara analitik prediktif memberikan nilai signifikan dalam konteks komersial, itu telah terbukti menghasilkan ketidakadilan dalam penerapannya pada keadilan kriminal. Hal ini terbukti dalam laporan yang diterbitkan oleh Pro Publica yang menemukan bahwa COMPAS, perangkat lunak yang paling populer digunakan oleh pengadilan AS untuk penilaian risiko kriminal, salah mengidentifikasi pelanggar minoritas yang terlihat sebagai lebih mungkin untuk mengulangi kejahatan pada tingkat dua kali lipat daripada pelanggar kulit putih.
Ketidakadilan ini memicu Jaksa Agung Eric Holder untuk mempertanyakan kesetaraan dan mengungkapkan kekhawatiran tentang ketidakadilan potensial yang timbul dari penerapan teknologi AI untuk memprediksi tingkat kejahatan dalam populasi pelanggar.
Bagaimana masyarakat dapat menghindari pemrograman tidak sengaja bias negatif ke dalam sistem AI?
Pertama, harus ada pengakuan bahwa AI mungkin memiliki kecenderungan untuk menghasilkan bias tidak sengaja yang disebut bias tidak sadar. Mengurangi dampak buruknya memerlukan pendekatan holistik yang terdiri dari pengembangan pedoman etika AI, seperti yang diusulkan oleh Kerangka Etika OECD. Ini didasarkan pada tujuh prinsip dasar termasuk keagenan manusia dan pengawasan, keamanan dan keamanan teknis, privasi dan tata kelola, transparansi, keanekaragaman dan nondiskriminasi, kesejahteraan sosial, dan akuntabilitas.
Kedua, ketaatan pada kerangka hukum yang melindungi terhadap profil otomatis sangat penting. Misalnya, Uni Eropa telah memiliki sejarah panjang dalam menghormati dan melindungi hak-hak privasi, dengan ekspresi paling baru dan paling kuat adalah Peraturan Perlindungan Data Umum (GDPR) yang secara khusus melindungi terhadap pengambilan keputusan otomatis.
Ketiga, perlu ada akuntabilitas industri untuk bagaimana teknologi AI dikembangkan dan komitmen untuk memberikan transparansi tanpa memengaruhi hak-hak IP mereka. Terdapat perkembangan positif di sini. Misalnya, Kemitraan pada AI adalah sebuah organisasi dengan lebih dari 80 anggota di 13 negara yang didedikasikan untuk penelitian dan diskusi tentang isu-isu AI kunci.
Terakhir, organisasi teknologi harus mempertahankan komitmen untuk melakukan asesmen dampak bias sebelum rilis komersial algoritma AI, terutama ketika aplikasi mereka memengaruhi hak-hak privasi dan keamanan. Pertanyaan yang harus dipertimbangkan oleh pemimpin teknologi sebelum merilis aplikasi AI yang baru termasuk: Apakah data yang digunakan untuk melatih teknologi ini cukup beragam? Bagaimana bias akan dideteksi? Bagaimana itu diuji dan oleh siapa? Apa insentif pengembang? Siapa yang akan mendapatkan keuntungan komersial dari itu?
Penting untuk diingat bahwa solusi AI mencerminkan data yang mendasari aplikasi ini dilatih, sehingga memastikan bahwa data ini tidak bias dan mencerminkan keanekaragaman konstituen yang akan dilayani oleh solusi ini sangat penting. Dalam kata-kata peneliti AI Professor Joanna Bryson, “jika data yang mendasari mencerminkan stereotip, atau jika Anda melatih AI dari budaya manusia, Anda akan menemukan bias. Dan jika kita tidak berhati-hati, kita riskan mengintegrasikan bias itu ke dalam program komputer yang segera mengambil alih pengoperasian semua, dari rumah sakit ke sekolah ke penjara – program yang seharusnya menghilangkan bias itu dari awal.”
ABBYY baru-baru ini meluncurkan Inisiatif Global untuk Meningkatkan Pengembangan Kecerdasan Buatan yang Dapat Dipercaya. Seberapa penting inisiatif ini bagi masa depan ABBYY?
Keputusan untuk mengembangkan inisiatif global untuk AI yang dapat dipercaya adalah keputusan penting yang dipicu oleh keyakinan kami bahwa sebagai sebuah organisasi yang teknologinya memengaruhi perusahaan di seluruh dunia dan melayani puluhan ribu pengguna individu, kami memiliki kewajiban untuk menjadi warga perusahaan yang baik dengan hati nurani sosial. Ini tidak hanya membantu membangun kepercayaan yang lebih besar dari pelanggan global dan mitra kami, tetapi juga membantu memastikan bahwa teknologi kami terus memiliki dampak yang mendalam dengan cara yang menguntungkan kebaikan umum.
Ini juga membuat bisnis yang baik untuk mempromosikan dan mendukung penggunaan AI yang dapat dipercaya. Ini memperkuat ekuitas merek kami, membangun kepercayaan dengan konstituen pelanggan global dan ekosistem mitra kami. Kepercayaan diterjemahkan menjadi bisnis berulang dan pertumbuhan yang berkelanjutan.
Bagian dari inisiatif ini adalah ABBYY berkomitmen untuk memupuk budaya yang mempromosikan penggunaan etis AI dan utilitas sosialnya. Apa yang perlu dilakukan oleh perusahaan lain untuk memupuk budaya yang serupa?
Perusahaan teknologi perlu membangun kerangka kerja untuk penggunaan etis AI. Tingkat komitmen ini tergantung pada aplikasi yang dimaksudkan dari algoritma AI. Cara terbaik untuk mengukur dampaknya adalah dengan menerapkan prinsip tidak melakukan kerusakan dan memiliki komitmen dari atas ke bawah untuk penggunaan AI yang dapat dipercaya.
Sama pentingnya adalah komitmen untuk transparansi. Sementara hak-hak IP harus seimbang dengan prinsip AI yang dapat dipercaya, pentingnya transparansi dan akuntabilitas untuk penggunaan AI yang bertanggung jawab harus dijelaskan dan dikomunikasikan secara jelas di seluruh organisasi.
Salah satu inisiatif yang ABBYY telah komitmen adalah menghadirkan teknologi AI yang bermanfaat secara sosial dan ekonomi. Ini dapat menjadi keseimbangan yang sulit untuk dicapai. Bagaimana perusahaan dapat mengimplementasikan ini dengan baik?
Pemimpin dapat mencapai keseimbangan ini dengan mempertimbangkan rekomendasi yang ditawarkan oleh Deloitte: Merancang etika ke dalam AI dimulai dengan menentukan apa yang penting bagi pemangku kepentingan seperti pelanggan, karyawan, regulator, dan masyarakat umum. Perusahaan harus menetapkan komite penasihat AI yang didedikasikan dan penasihat eksternal yang akan berinteraksi dengan kelompok kerja multi-pemangku kepentingan dan mengatur serta mengawasi tata kelola solusi yang diaktifkan AI termasuk desain, pengembangan, penerapan, dan penggunaannya.
Bagaimana kita menyeimbangkan kepentingan komersial dan kebaikan sosial paling baru ditunjukkan selama pandemi Coronavirus. Kami membuat banyak teknologi kami tersedia secara gratis atau dengan tarif diskon untuk membantu individu dan organisasi menghadapi krisis, mempertahankan kelangsungan bisnis, dan mendukung pelanggan mereka di tengah keadaan yang tidak terduga.
Kami juga baru-baru ini membuat kerangka teknologi kami tersedia melalui NeoML, perpustakaan pembelajaran mesin lintas platform yang open-source yang memungkinkan pengembang perangkat lunak untuk memanfaatkan model yang terbukti dan dapat diandalkan untuk memajukan inovasi AI.
Apakah Anda dapat membagikan pandangan tentang menggunakan AI untuk aplikasi pelacakan kontak COVID-19 dan kebutuhan untuk menyeimbangkan hak privasi?
Ini adalah isu yang sangat mengkhawatirkan. Terdapat mereka yang berargumentasi bahwa implementasi aplikasi pelacakan mobile merupakan gangguan yang tidak diinginkan terhadap hak-hak privasi. Di sisi lain, ketika datang ke keselamatan publik, selalu ada batasan pada hak-hak. Ini adalah pertukaran antara hak-hak dan tanggung jawab. Namun, hak-hak tidak absolut. Pengendalian pandemi global memerlukan tindakan terkoordinasi dan penerapan sumber daya dan teknologi yang dapat digunakan secara bertanggung jawab untuk melindungi populasi secara luas.
Keseimbangan antara hak-hak privasi individu dan kebaikan umum diakui dalam kerangka hukum. Misalnya, GDPR mengidentifikasi enam dasar untuk pengolahan informasi yang dapat diidentifikasi secara hukum, termasuk ketentuan bahwa ketika pengolahan itu tidak dapat dihindari untuk kepentingan publik, pengolahan tersebut dari PII dibenarkan tanpa mendapatkan persetujuan subjek data.
Selanjutnya, Pasal 46 GDPR secara langsung menegaskan bahwa pengolahan PII dibenarkan tanpa mendapatkan persetujuan subjek data dalam keadaan darurat kemanusiaan termasuk wabah. Namun, perlu diperhatikan bahwa Pasal 46 menafsirkan penerapan ketentuan kepentingan publik sangat sempit, dengan mencatat bahwa itu hanya harus terjadi ketika itu tidak dapat didasarkan pada dasar hukum lain.
Selain dari keseimbangan antara hak-hak privasi dengan kepentingan publik, juga penting bagi sektor teknologi dan pembuat kebijakan untuk mengimplementasikan pedoman etis, transparan, dan adil yang terkait dengan penggunaan profil AI yang digerakkan dan berbagi informasi kesehatan yang sangat sensitif. Perusahaan teknologi besar termasuk Google dan Facebook telah memulai inisiatif untuk melacak pergerakan pengguna untuk mengidentifikasi bagaimana virus menyebar dan mengevaluasi efektivitas langkah-langkah jarak sosial.
Saya percaya bahwa selama informasi tersebut dianonimkan, penggunaannya memiliki utilitas sosial.
Apakah ada yang lain yang Anda ingin bagikan tentang Inisiatif Global ABBYY yang baru untuk Meningkatkan Pengembangan Kecerdasan Buatan yang Dapat Dipercaya?
Regulasi cenderung tertinggal dari inovasi teknologi, oleh karena itu, perusahaan perlu mengambil peran proaktif dalam memupuk transparansi dan akuntabilitas dengan teknologi AI dan bagaimana mereka memengaruhi hak-hak privasi dan keamanan. Inisiatif kami mencerminkan komitmen kami dalam upaya ini. Sejak pendiriannya, kami telah menciptakan teknologi inovatif yang melestarikan informasi berharga dan mengubahnya menjadi pengetahuan yang dapat diambil.
Selanjutnya, penggunaan etis teknologi kecerdasan buatan tidak hanya harus dipertimbangkan pada dasar hukum tetapi juga sebagai kewajiban moral dan imperatif bisnis. Jika solusi Anda memiliki jangkauan yang luas dan memengaruhi fungsi bisnis kritis, harus menjadi standar industri untuk transparan dalam penerapan teknologi AI.
Terima kasih banyak untuk menjawab pertanyaan-pertanyaan penting ini. Untuk melihat prinsip-prinsip panduan dan pendekatan ABBYY untuk mematuhi dan mendukung prinsip-prinsip AI yang dapat dipercaya, silakan klik di sini. Siapa saja yang ingin mempelajari lebih lanjut tentang ABBYY secara umum dapat mengunjungi situs web ABBYY.












