stubs Kā īstenot AI ētiku? - Apvienojieties.AI
Savienoties ar mums

Domu vadītāji

Kā īstenot AI ētiku?

mm

Izdots

 on

AI mērķis ir procesu optimizēšana, nevis cilvēku izslēgšana no tiem. Atbildība joprojām ir ļoti svarīga visaptverošajā idejā, ka AI var aizstāt cilvēkus. Kaut arī tehnoloģijas un automatizētās sistēmas ir palīdzējušas mums sasniegt labākus ekonomiskos rezultātus pagājušajā gadsimtā, vai tās patiešām var aizstāt pakalpojumus, radošumu un dziļas zināšanas? Es joprojām uzskatu, ka viņi nevar, taču viņi var optimizēt laiku, kas pavadīts šo jomu attīstīšanai.

Atbildība lielā mērā ir atkarīga no intelektuālā īpašuma tiesībām, paredzot tehnoloģiju ietekmi uz kolektīvajām un individuālajām tiesībām un nodrošinot apmācībā un koplietošanā izmantoto datu drošību un aizsardzību, izstrādājot jaunus modeļus. Tā kā mēs turpinām attīstīties tehnoloģijā, AI ētikas tēma ir kļuvusi arvien aktuālāka. Tas rada svarīgus jautājumus par to, kā mēs regulējam un integrējam AI sabiedrībā, vienlaikus samazinot iespējamos riskus.

Es cieši sadarbojos ar vienu AI aspektu — balss klonēšanu. Balss ir svarīga daļa no indivīda līdzības un biometriskajiem datiem, ko izmanto balss modeļu apmācīšanai. Izstrādājot produktu, ir svarīgi apsvērt līdzības aizsardzību (juridiski un politikas jautājumi), balss datu aizsardzību (privātuma politikas un kiberdrošība) un balss klonēšanas lietojumprogrammu ierobežojumu noteikšanu (ētikas jautājumi, kas mēra ietekmi).

Mums ir jāizvērtē, kā AI atbilst sabiedrības normām un vērtībām. AI ir jāpielāgo, lai tas atbilstu sabiedrības esošajiem ētikas ietvariem, nodrošinot, ka tas nerada papildu riskus vai neapdraud pastāvošās sabiedrības normas. Tehnoloģiju ietekme aptver jomas, kurās AI dod iespēju vienai personu grupai, vienlaikus izslēdzot citas. Šī eksistenciālā dilemma rodas katrā mūsu attīstības un sabiedrības izaugsmes vai lejupslīdes posmā. Vai AI var informācijas ekosistēmās ieviest vairāk dezinformācijas? Jā. Kā mēs pārvaldām šo risku produkta līmenī un kā mēs par to izglītojam lietotājus un politikas veidotājus? Atbildes slēpjas nevis pašas tehnoloģijas briesmās, bet gan tajā, kā mēs to iesaiņojam produktos un pakalpojumos. Ja mums nebūs pietiekami daudz darbaspēka produktu komandās, lai paskatītos tālāk un novērtētu tehnoloģiju ietekmi, mēs būsim iestrēguši nekārtības novēršanas ciklā.

AI integrācija produktos rada jautājumus par produktu drošību un ar AI saistīta kaitējuma novēršanu. Izstrādājot un ieviešot mākslīgo intelektu, par prioritāti jāizvirza drošības un ētiskie apsvērumi, kas prasa resursu piešķiršanu attiecīgajām komandām.

Lai veicinātu jauno diskusiju par mākslīgā intelekta ētikas ieviešanu, es iesaku šo pamata ciklu, lai AI padarītu ētisku produkta līmenī.

1. Izpētiet mākslīgā intelekta juridiskos aspektus un to, kā mēs to regulējam, ja noteikumi pastāv. Tie ietver ES likumu par mākslīgo intelektu, Digitālo pakalpojumu likumu, Apvienotās Karalistes Tiešsaistes drošības likumprojektu un GDPR par datu privātumu. Ietvarstruktūras tiek izstrādātas, un tām ir nepieciešams nozares vadošo uzņēmumu (jauno tehnoloģiju) un vadītāju ieguldījums. Skatiet 4. punktu, kas pabeidz ieteikto ciklu.

2. Apsveriet, kā mēs pielāgojam uz AI balstītus produktus sabiedrības normām, neradot lielāku risku. Vai tas ietekmē informācijas drošību vai darba sektoru, vai arī tas pārkāpj autortiesības un intelektuālā īpašuma tiesības? Izveidojiet uz krīzes scenāriju balstītu matricu. Es to daru no savas starptautiskās drošības fona.

3. Nosakiet, kā integrēt iepriekš minētos uz AI balstītos produktos. Tā kā mākslīgais intelekts kļūst arvien sarežģītāks, mums ir jānodrošina, lai tas atbilstu sabiedrības vērtībām un normām. Mums ir jābūt aktīviem, risinot ētiskus apsvērumus un integrējot tos AI izstrādē un ieviešanā. Ja uz AI balstīti produkti, piemēram, ģeneratīvais AI, draud izplatīt vairāk dezinformācijas, mums ir jāievieš mazināšanas līdzekļi, mērenība, jāierobežo piekļuve pamattehnoloģijām un jāsazinās ar lietotājiem. Ir ļoti svarīgi, lai uz AI balstītos produktos būtu AI ētikas un drošības komandas, kas prasa resursus un uzņēmuma redzējumu.

Apsveriet, kā mēs varam dot ieguldījumu un veidot tiesisko regulējumu. Paraugprakse un politikas pamatnostādnes nav tikai modes vārdi; tie ir praktiski rīki, kas palīdz jaunajām tehnoloģijām darboties kā palīgrīkiem, nevis draudiem. Politikas veidotāju, pētnieku, lielo tehnoloģiju un jauno tehnoloģiju apvienošana ir būtiska, lai līdzsvarotu ar AI saistītās sabiedrības un uzņēmējdarbības intereses. Tiesiskajam regulējumam ir jāpielāgojas jaunajai mākslīgā intelekta tehnoloģijai, nodrošinot, ka tie aizsargā indivīdus un sabiedrību, vienlaikus veicinot inovācijas un progresu.

4. Padomājiet par to, kā mēs sniedzam ieguldījumu tiesiskajā regulējumā un veidojam tos. Labākā prakse un politikas pamatnostādnes nav tukši buzzwords, bet diezgan praktiski instrumenti, lai jaunā tehnoloģija darbotos kā palīgrīki, nevis kā draudi. Politikas veidotāju, pētnieku, lielo tehnoloģiju un jauno tehnoloģiju apvienošana vienā telpā ir būtiska, lai līdzsvarotu sabiedrības un biznesa intereses saistībā ar AI. Tiesiskajam regulējumam ir jāpielāgojas jaunajai mākslīgā intelekta tehnoloģijai. Mums ir jānodrošina, ka šīs sistēmas aizsargā indivīdus un sabiedrību, vienlaikus veicinot inovāciju un progresu.

Kopsavilkums

Šis ir patiešām pamata loks uz Ai balstītu jauno tehnoloģiju integrēšanai mūsu sabiedrībā. Tā kā mēs turpinām cīnīties ar AI ētikas sarežģītību, ir svarīgi arī turpmāk atrast risinājumus, kuros prioritāte ir drošība, ētika un sabiedrības labklājība. Un tie nav tukši vārdi, bet gan grūts darbs, katru dienu saliekot visas mīklas.

Šie vārdi ir balstīti uz manu pieredzi un secinājumiem.

Anna ir Ētikas un partnerattiecību nodaļas vadītāja Runātājs, Emmy apbalvotā balss klonēšanas tehnoloģija, kas atrodas Ukrainā. Anna ir bijusī politikas padomniece Reface, mākslīgā intelekta darbināmā sintētisko mediju lietotnē, kā arī līdzdibinātāja dezinformācijas apkarošanas rīkam Capture, ko finansē Startup Wise Guys akseleratora programma. Annai ir 11 gadu pieredze drošības un aizsardzības politikā, tehnoloģijās un noturības veidošanā. Viņa ir bijusī zinātniskā līdzstrādniece Starptautiskajā aizsardzības un drošības centrā Tallinā un Prāgas Drošības studiju institūtā. Viņa ir arī konsultējusi lielākos Ukrainas uzņēmumus noturības veidošanā kā daļa no Kijevas Ekonomikas augstskolas Hibrīdkara darba grupas.