tunggul Kahariwang Ngeunaan Poténsi Résiko ChatGPT Anu Ngaronjatkeun Moméntum tapi Naha Ngareureuhkeun AI mangrupikeun Gerakan anu Saé? - Ngahiji.AI
Connect with kami

Panginten Pamingpin

Kahariwang Ngeunaan Poténsi Résiko ChatGPT Anu Ngaronjatkeun Moméntum tapi Naha Ngareureuhkeun AI mangrupikeun Gerakan anu Saé?

mm

dimuat

 on

Bari Elon kasturi jeung pamingpin tech global lianna geus disebut a reureuhan di AI Saatos sékrési ChatGPT, sababaraha kritik percaya yén lirén dina pangwangunan sanés mangrupikeun jawaban. Penginjil AI Andrew Pery, ti perusahaan otomatisasi cerdas ABBYY percaya yén istirahat sapertos nempatkeun odol deui kana tabung. Di dieu, anjeunna nyarioskeun ka urang naha…

Aplikasi AI téh pervasive, mangaruhan ampir unggal aspék kahirupan urang. Bari laudable, nempatkeun rem on ayeuna bisa jadi implausible.

Pasti aya masalah anu tiasa ditingali anu nyauran paningkatan pangawasan pangaturan pikeun maréntah dina dampak anu ngabahayakeun.

Nembé nembé, Otoritas Perlindungan Data Italia samentawis ngablokir pamakean ChatGPT di sakumna kusabab masalah privasi anu aya hubunganana sareng cara ngumpulkeun sareng ngolah data pribadi anu dianggo pikeun ngalatih modél, ogé kakurangan panyalindungan anu jelas, ngalaan barudak kana réspon "leres pisan. teu luyu jeung umur jeung kasadaran maranéhanana.

Organisasi Konsumen Éropa (BEUC) ngadesek EU pikeun nalungtik poténsi dampak anu ngabahayakeun tina modél basa skala ageung tinangtu "kahariwang ngeunaan kumaha ChatGPT sareng chatbots anu sami tiasa nipu sareng ngamanipulasi jalma. Sistem AI ieu peryogi panilitian umum anu langkung ageung, sareng otoritas publik kedah negeskeun deui kontrolana.

Di AS, anu Puseur pikeun AI sareng Kabijakan Digital geus Filed keluhan jeung Komisi Trade Federal yén ChatGPT ngalanggar bagian 5 Komisi Trade Federal Act (FTC Act) (15 USC 45). Dasar keluhan éta ChatGPT disangka gagal pikeun minuhan éta pitunjuk diatur ku FTC pikeun transparansi sareng kajelasan sistem AI. Rujukan dilakukeun kana pangakuan ChatGPT ngeunaan sababaraha anu dipikanyaho resiko kaasup kompromi hak privasi, ngahasilkeun eusi ngabahayakeun, sarta nyebarkeun disinformasi.

Mangpaat modél basa skala ageung sapertos ChatGPT sanaos panalungtikan nunjukkeun poténsina sisi poek. Hal ieu kabuktian ngahasilkeun jawaban anu salah, sabab modél ChatGPT anu didasarkeun dumasar kana algoritma pembelajaran jero anu ngungkit set data pelatihan ageung tina internét. Beda sareng chatbots anu sanés, ChatGPT ngagunakeun modél basa dumasar kana téknik diajar anu jero anu ngahasilkeun téks anu sami sareng paguneman manusa, sareng platformna "anjukeun jawaban ku cara ngadamel saruntuyan tebakan, anu mangrupikeun bagian tina alesan éta tiasa ngajawab jawaban anu salah saolah-olah aranjeunna éta leres pisan."

Saterusna, ChatGPT kabuktian accentuate sarta ngagedekeun bias hasilna "jawaban anu ngabentenkeun gender, ras, jeung grup minoritas, hiji hal anu parusahaan nyobian pikeun mitigate". ChatGPT ogé tiasa janten bonanza pikeun aktor jahat pikeun ngeksploitasi pangguna anu teu curiga, kalaluasaan sareng ngalaan aranjeunna serangan scam.

Masalah ieu nyababkeun Parlemén Éropa pikeun nyebarkeun a panjelasan nu reinforces kabutuhan salajengna nguatkeun dibekelan ayeuna draf UU Kecerdasan Buatan EU, (AIA) anu masih ngantosan ratifikasi. Koméntar nunjukkeun yén draf régulasi anu diusulkeun ayeuna museurkeun kana naon anu disebut aplikasi AI sempit, anu diwangun ku kategori khusus sistem AI anu berisiko tinggi sapertos rekrutmen, layak kiridit, padamelan, penegak hukum sareng hak pikeun jasa sosial. Tapi, draf peraturan AIA EU henteu nutupan AI tujuan umum, sapertos modél basa ageung anu nyayogikeun kamampuan kognitif anu langkung maju sareng anu tiasa "ngalaksanakeun rupa-rupa tugas anu cerdas." Aya sauran pikeun ngalegaan ruang lingkup draf régulasi pikeun ngalebetkeun kategori anu misah, résiko luhur tina sistem AI tujuan umum, anu meryogikeun pamekar pikeun ngalaksanakeun uji konformasi ex ante anu ketat sateuacan nempatkeun sistem sapertos kitu di pasar sareng terus-terusan ngawas kinerjana. poténsi outputs ngabahayakeun teu kaduga.

Sapotong utamana mantuan tina panalungtikan narik kasadaran kana celah ieu yén régulasi AIA EU "utamana difokuskeun kana modél AI konvensional, sareng sanés kana generasi énggal anu lahirna urang ayeuna."

Ieu nyarankeun opat strategi nu régulator kudu mertimbangkeun.

  1. Merlukeun pamekar sistem sapertos rutin ngalaporkeun efficacy prosés manajemén résiko maranéhna pikeun ngurangan kaluaran ngabahayakeun.
  2. Usaha anu ngagunakeun modél basa skala ageung kedah diwajibkeun pikeun ngungkabkeun ka konsuménna yén eusi éta dihasilkeun ku AI.
  3. Pamekar kedah ngalanggan prosés formal sékrési bertahap, salaku bagian tina kerangka manajemén résiko, dirancang pikeun ngajagaan tina hasil anu ngabahayakeun anu berpotensi teu kaduga.
  4. Nempatkeun tanggung jawab para pamekar pikeun "ngurangan résiko dina akarna" ku kedah "pro-aktif nga-audit data pelatihan anu disetél pikeun kasalahan."

Faktor anu ngalanggengkeun résiko anu aya hubunganana sareng téknologi anu ngaganggu nyaéta dorongan ku para inovator pikeun ngahontal kauntungan mover munggaran ku ngadopsi modél bisnis "kapal heula sareng ngalereskeun engké". Sedengkeun OpenAI rada herang ngeunaan resiko poténsi ChatGPT, aranjeunna geus ngarilis eta pikeun pamakéan komérsial lega kalawan "meuli Waspada" onus on pamaké pikeun beurat tur nganggap resiko sorangan. Éta tiasa janten pendekatan anu teu tiasa dipertahankeun tinangtu dampak pervasive tina sistem AI conversational. Perda proaktif ditambah sareng ukuran penegak anu kuat kedah paling penting nalika nanganan téknologi anu ngaganggu sapertos kitu.

Kecerdasan buatan parantos nyerep ampir unggal bagian tina kahirupan urang, hartosna jeda dina pamekaran AI tiasa nunjukkeun seueur halangan sareng akibat anu teu kaduga. Gantina ujug-ujug ngompa istirahat, industri sareng pamaén législatif kedah kolaborasi kalayan iman anu saé pikeun ngalaksanakeun régulasi anu tiasa dilaksanakeun anu berakar dina nilai-nilai manusa-manusa sapertos transparansi, akuntabilitas, sareng kaadilan. Ku ngarujuk kana panerapan anu aya sapertos AIA, pamimpin di séktor swasta sareng umum tiasa ngarancang kawijakan anu lengkep sareng standar global anu bakal nyegah pamakean anu jahat sareng ngirangan hasil anu ngarugikeun, ku kituna ngajaga kecerdasan buatan dina wates pikeun ningkatkeun pangalaman manusa.

Andrew Pery mangrupikeun Evangelist Etika AI di perusahaan otomatisasi cerdas Abby. Pery boga leuwih ti 25 taun pangalaman spearheading program manajemén produk pikeun pausahaan téhnologi global ngarah. Kaahlianna nyaéta dina automation prosés dokumén calakan sareng intelijen prosés kalayan kaahlian khusus dina téknologi AI, software aplikasi, privasi data sareng étika AI. Anjeunna nyepeng gelar Master of Law sareng Béda ti Northwestern University Pritzker School of Law sareng mangrupikeun Profesional Privasi Data Certified.