- Terminija (A–D)
- AI galimybių valdymas
- AIOps
- albumai
- Turto našumas
- Autoencoder
- Atgalinis dauginimas
- Bayeso teorema
- Dideliu duomenų kiekiu
- „Chatbot“: vadovas pradedančiajam
- Kompiuterinis mąstymas
- Kompiuterio vizija
- Sumišimo matrica
- Konvoliuciniai neuroniniai tinklai
- Kibernetinė sauga
- Duomenų audinys
- Duomenų pasakojimas
- duomenų Mokslas
- Duomenų saugojimas
- Sprendimų medis
- Gilūs klastotės
- Gilus mokymasis
- Gilaus sutvirtinimo mokymasis
- devops
- „DevSecOps“
- Difuzijos modeliai
- Skaitmeninis dvynys
- Matmenų mažinimas
- Terminija (nuo E iki K)
- Edge AI
- Emocijų AI
- Ansamblio mokymasis
- Etinis įsilaužimas
- ETL
- Paaiškinamas AI
- Federuotas mokymasis
- FinOps
- Generatyvinis AI
- Generacinis prieštaringų tinklas
- Generatyvus prieš diskriminacinį
- Gradiento didinimas
- Gradiento nusileidimas
- Mokymasis iš kelių kartų
- Vaizdo klasifikacija
- IT operacijos (ITOps)
- Incidentų automatizavimas
- Įtakos inžinerija
- „K“ reiškia grupavimą
- K-Artimiausi kaimynai
- Terminija (L–Q)
- Terminija (nuo R iki Z)
- Stiprinimo mokymasis
- Atsakingas AI
- RLHF
- Robotų procesų automatizavimas
- Struktūrinis vs nestruktūrinis
- Sentimentų analizė
- Prižiūrimas prieš neprižiūrimą
- Palaikykite vektorines mašinas
- Sintetiniai duomenys
- Sintetinės laikmenos
- Teksto klasifikacija
- TinyML
- Mokymasis perkelti
- Transformatorių neuroniniai tinklai
- Tiuringo testas
- Vektorių panašumo paieška
AI 101 m
Kas yra atsakingas AI? Principai, iššūkiai ir privalumai
By
Haziqa SajidTurinys
Atsakingas AI (RAI) reiškia skaidrių, nešališkų, atskaitingų ir etikos gairių atitinkančių AI sistemų kūrimą ir diegimą. Dirbtinio intelekto sistemoms tampant tvirtesnėms ir vyraujant, labai svarbu užtikrinti, kad jos būtų kuriamos atsakingai ir laikantis saugos bei etikos gairių.
Sveikata, transportas, tinklo valdymas ir stebėjimas saugai svarbios AI programos kur sistemos gedimas gali turėti rimtų pasekmių. Didelės įmonės žino, kad RAI yra būtinas norint sumažinti technologijų riziką. Tačiau pagal MIT Sloan/BCG ataskaitą, kurioje dalyvavo 1093 respondentai, 54% įmonių trūko atsakingo AI kompetencijos ir talento.
Nors mąstymo lyderiai ir organizacijos sukūrė atsakingo AI principus, užtikrinti atsakingą AI sistemų kūrimą vis dar kyla iššūkių. Išsamiai išnagrinėkime šią idėją:
5 Atsakingo AI principai
1. Sąžiningumas
Technologai turėtų sukurti tokias procedūras, kad dirbtinio intelekto sistemos su visais asmenimis ir grupėmis elgtųsi sąžiningai be šališkumo. Taigi teisingumas yra pagrindinis reikalavimas priimant didelės rizikos sprendimus.
Teisingumas yra apibrėžiamas kaip:
„Išnagrinėjame poveikį įvairioms demografinėms grupėms ir pasirenkame vieną iš kelių matematinių grupės sąžiningumo apibrėžimų, kurie tinkamai patenkins norimą teisinių, kultūrinių ir etinių reikalavimų rinkinį.
2. Atskaitomybė
Atskaitomybė reiškia, kad asmenys ir organizacijos, kuriantys ir diegiantys dirbtinio intelekto sistemas, turėtų būti atsakingi už savo sprendimus ir veiksmus. DI sistemas diegianti komanda turėtų užtikrinti, kad jų dirbtinio intelekto sistema būtų skaidri, interpretuojama, patikrinama ir nekenktų visuomenei.
Atsakomybė apima septyni komponentai:
- Kontekstas (tikslas, dėl kurio reikalaujama atskaitomybės)
- Diapazonas (atskaitomybės dalykas)
- Agentas (kas yra atsakingas?)
- Forumas (kuriam turi pranešti atsakinga šalis)
- Standartai (atskaitomybės kriterijai)
- Procesas (atskaitomybės metodas)
- Pasekmės (atskaitomybės pasekmės)
3. Skaidrumas
Skaidrumas reiškia, kad AI sistemų sprendimų priėmimo priežastis yra aiški ir suprantama. Skaidrios AI sistemos yra paaiškinamos.
Pagal Patikimo dirbtinio intelekto (ALTAI) įvertinimo sąrašas, skaidrumą sudaro trys pagrindiniai elementai:
- Atsekamumas (duomenys, išankstinio apdorojimo žingsniai ir modelis yra prieinami)
- Paaiškinamumas (aiškūs sprendimo priėmimo / numatymo motyvai)
- Atviras bendravimas (dėl AI sistemos apribojimo)
4. Privatumas
Privatumas yra vienas iš pagrindinių atsakingo AI principų. Tai reiškia asmeninės informacijos apsaugą. Šis principas užtikrina, kad žmonių asmeninė informacija būtų renkama ir apdorojama gavus sutikimą ir nepatenka į piktnaudžiavimo rankas.
Kaip neseniai buvo parodyta, buvo „Clearview“ – bendrovės, kuriančios veido atpažinimo modelius teisėsaugai ir universitetams, atvejis. JK duomenų sargybiniai padavė į teismą „Clearview AI“ dėl 7.5 mln už JK gyventojų vaizdų rinkimą iš socialinių tinklų be sutikimo sukurti 20 mlrd. vaizdų duomenų bazę.
5. Saugumas
Saugumas reiškia užtikrinti, kad dirbtinio intelekto sistemos būtų saugios ir nekeltų grėsmės visuomenei. AI grėsmės saugumui pavyzdys yra priešiškų išpuolių. Šios kenkėjiškos atakos apgaudinėja ML modelius, kad jie priimtų neteisingus sprendimus. Dirbtinio intelekto sistemų apsauga nuo kibernetinių atakų yra būtina atsakingam AI.
4 pagrindiniai atsakingo AI iššūkiai ir rizika
1. Šališkumas
Žmogaus šališkumas, susijęs su amžiumi, lytimi, tautybe ir rase, gali turėti įtakos duomenų rinkimui, todėl gali atsirasti šališkų AI modelių. JAV prekybos departamento tyrimas nustatė, kad veido atpažinimo AI klaidingai identifikuoja spalvotus žmones. Taigi AI naudojimas veido atpažinimui teisėsaugoje gali sukelti neteisėtus areštus. Be to, sukurti sąžiningus AI modelius yra sudėtinga, nes tokių yra 21 skirtingi parametrai jiems apibrėžti. Taigi, yra kompromisas; patenkinti vieną teisingą AI parametrą reiškia paaukoti kitą.
2. Aiškinamumas
Aiškinamumas yra esminis iššūkis kuriant atsakingą AI. Tai reiškia supratimą, kaip mašininio mokymosi modelis padarė tam tikrą išvadą.
Giliems neuroniniams tinklams trūksta aiškinimo, nes jie veikia kaip juodosios dėžės su keliais paslėptų neuronų sluoksniais, todėl sunku suprasti sprendimų priėmimo procesą. Tai gali būti iššūkis priimant didelius sprendimus, pavyzdžiui, sveikatos priežiūros, finansų ir kt.
Be to, ML modelių interpretavimo formalizavimas yra sudėtingas, nes taip yra subjektyvus ir konkrečiam domenui.
3. Valdymas
Valdymas reiškia taisyklių, politikos ir procedūrų rinkinį, kuris prižiūri AI sistemų kūrimą ir diegimą. Pastaruoju metu buvo padaryta didelė pažanga DI valdymo diskurse, organizacijoms pristatant sistemas ir etikos gaires.
Etikos gairės, skirtos patikimas ES dirbtinis intelektas, Australijos dirbtinio intelekto etikos sistemair EBPO AI principai yra AI valdymo sistemų pavyzdžiai.
Tačiau sparti AI pažanga pastaraisiais metais gali pranokti šias AI valdymo sistemas. Šiuo tikslu reikia sukurti sistemą, kuri įvertintų AI sistemų teisingumą, aiškinamumą ir etiką.
4. Reglamentas
Dirbtinio intelekto sistemoms vis labiau plintant, reikia reglamentuoti, kad būtų atsižvelgta į etines ir visuomenines vertybes. Reguliavimo, kuris neslopina dirbtinio intelekto naujovių, kūrimas yra esminis atsakingo DI iššūkis.
Net ir taikant Bendrąjį duomenų apsaugos reglamentą (BDAR), Kalifornijos vartotojų privatumo įstatymą (CCPA) ir asmens informacijos apsaugos įstatymą (PIPL) kaip reguliavimo institucijas, dirbtinio intelekto tyrėjai nustatė, kad 97% ES svetainių neatitinka GDPR teisinės sistemos reikalavimų.
Be to, įstatymų leidėjai susiduria su a reikšmingas iššūkis pasiekti sutarimą dėl AI apibrėžimo, apimančio ir klasikines AI sistemas, ir naujausias AI programas.
3 pagrindiniai atsakingo dirbtinio intelekto pranašumai
1. Sumažintas šališkumas
Atsakingas dirbtinis intelektas sumažina šališkumą sprendimų priėmimo procesuose, didindamas pasitikėjimą dirbtinio intelekto sistemomis. Sumažinus dirbtinio intelekto sistemų šališkumą, galima užtikrinti sąžiningą ir teisingą sveikatos priežiūros sistemą ir sumažinti AI pagrįstų šališkumą Finansinės paslaugos ir taip toliau
2. Padidintas skaidrumas
Atsakingas AI sukuria skaidrias AI programas, kurios didina pasitikėjimą AI sistemomis. Skaidrios AI sistemos sumažinti klaidų ir netinkamo naudojimo riziką. Dėl didesnio skaidrumo dirbtinio intelekto sistemų auditas tampa lengvesnis, įgyjamas suinteresuotųjų šalių pasitikėjimas ir gali būti sukurtos atskaitingos AI sistemos.
3. Geresnis saugumas
Saugios AI programos užtikrina duomenų privatumą, sukuria patikimą ir nekenksmingą išvestį ir yra apsaugotos nuo kibernetinių atakų.
Technikos milžinams patinka "Microsoft" ir "Google", kurie yra AI sistemų kūrimo priešakyje, sukūrė atsakingo AI principus. Atsakingas dirbtinis intelektas užtikrina, kad dirbtinio intelekto naujovės nepakenktų asmenims ir visuomenei.
Mąstymo lyderiai, mokslininkai, organizacijos ir teisinės institucijos turėtų nuolat peržiūrėti atsakingą AI literatūrą, kad užtikrintų saugią AI naujovių ateitį.
Norėdami gauti daugiau su AI susijusio turinio, apsilankykite vienytis.ai.
Jums gali patikti
„AniPortrait“: garsu pagrįsta fotorealistinio portreto animacijos sintezė
AI vidinis dialogas: kaip savirefleksija pagerina pokalbių robotus ir virtualius asistentus
Momentinis stilius: stiliaus išsaugojimas kuriant tekstą į vaizdą
LoReFT: Representation Finetuning for Language Models
Be paieškos sistemų: LLM valdomų žiniatinklio naršymo agentų augimas
AI skaidrumo ir pasitikėjimo didinimas naudojant sudėtinį AI