Connect with us

Tankeledere

Hvordan operasjonalisere AI-etikken?

mm

AI handler om å optimalisere prosesser, ikke om å eliminere mennesker fra dem. Ansvarlighet er avgjørende i den overordnede ideen om at AI kan erstatte mennesker. Mens teknologi og automatiserte systemer har hjulpet oss å oppnå bedre økonomiske resultater i det siste århundret, kan de virkelig erstatte tjenester, kreativitet og dyptgående kunnskap? Jeg tror fortsatt at de ikke kan, men de kan optimalisere tiden som brukes på å utvikle disse områdene.

Ansvarlighet avhenger tungt av immaterielle rettigheter, forutseende virkningen av teknologi på kollektive og individuelle rettigheter, og sikre sikkerheten og beskyttelsen av data som brukes i trening og deling under utvikling av nye modeller. Ettersom vi fortsetter å fremme teknologi, har temaet AI-etikken blitt stadig mer relevant. Dette reiser viktige spørsmål om hvordan vi regulerer og integrerer AI i samfunnet samtidig som vi minimiserer potensielle risikoer.

Jeg arbeider tett med ett aspekt av AI – stemmekloning. Stemme er en viktig del av en persons likhet og biometriske data som brukes til å trene stemmemodeller. Beskyttelsen av likhet (juridiske og politiske spørsmål), sikring av stemmedata (personvernpolitikk og cybersikkerhet), og etablering av grenser for stemmekloning-applikasjoner (etiske spørsmål som måler innvirkning) er essensielle å vurdere mens man bygger produktet.

Vi må vurdere hvordan AI stemmer overens med samfunnets normer og verdier. AI må tilpasses for å passe innenfor samfunnets eksisterende etiske rammeverk, og sikre at det ikke påfører ekstra risiko eller true etablerte samfunnsnormer. Virkningen av teknologi dekker områder der AI gir makt til en gruppe mennesker samtidig som den eliminerer andre. Denne eksistensielle dilemmaet oppstår på hvert stadium av vår utvikling og samfunnets vekst eller tilbakegang. Kan AI introdusere mer desinformasjon i informasjonsøkosystemer? Ja. Hvordan håndterer vi denne risikoen på produktets nivå, og hvordan utdanner vi brukere og beslutningstakere om det? Svarene ligger ikke i teknologiens farer i seg selv, men i hvordan vi pakker det inn i produkter og tjenester. Hvis vi ikke har nok arbeidskraft på produktteamene til å se bortenfor og vurdere teknologiens innvirkning, vil vi bli fast i en syklus av å fikse rotten.

Integreringen av AI i produkter reiser spørsmål om produktsikkerhet og forebygging av AI-relatert skade. Utviklingen og implementeringen av AI bør prioritere sikkerhet og etiske overveielser, noe som krever ressursallokering til relevante team.

For å fremme den nye diskusjonen om å operasjonalisere AI-etikken, foreslår jeg denne grunnleggende syklusen for å gjøre AI etisk på produktets nivå:

1. Undersøk de juridiske aspektene ved AI og hvordan vi regulerer det, hvis det finnes reguleringer. Disse inkluderer EU’s AI-lov, Digital Service Act, Storbritannias Online Safety Bill og GDPR om datapersonvern. Rammeverkene er arbeid i gang og trenger innspill fra industrifrontrunnere (fremvoksende teknologi) og ledere. Se punkt (4) som fullfører den foreslåtte syklusen.

2. Vurdér hvordan vi tilpasser AI-baserte produkter til samfunnets normer uten å påføre mer risiko. Virker det inn på informasjonssikkerhet eller arbeidsmarkedet, eller krenker det opphavsrett og immaterielle rettigheter? Lag en krise-scenariebasert matrise. Jeg trekker dette fra min internasjonale sikkerhetsbakgrunn.

3. Bestemm hvordan vi integrerer ovennevnte i AI-baserte produkter. Ettersom AI blir mer sofistikert, må vi sikre at det stemmer overens med samfunnets verdier og normer. Vi må være proaktive i å håndtere etiske overveielser og integrere dem i AI-utvikling og implementering. Hvis AI-baserte produkter, som generativ AI, truer med å spre mer desinformasjon, må vi introdusere mitigasjonstiltak, moderering, begrensning av tilgang til kjernteknologi og kommunikasjon med brukere. Det er viktig å ha AI-etikks- og sikkerhetsteam i AI-baserte produkter, noe som krever ressurser og en bedriftsvisjon.

Vurdér hvordan vi kan bidra til og forme juridiske rammeverk. Beste praksis og politiske rammeverk er ikke bare tomme ord; de er praktiske verktøy som hjelper ny teknologi å fungere som hjelpemidler i stedet for truende trusler. Å bringe sammen beslutningstakere, forskere, stor teknologi og fremvoksende teknologi er essensielt for å balansere samfunnets og bedriftens interesser omkring AI. Juridiske rammeverk må tilpasses den fremvoksende teknologien til AI, og sikre at disse rammeverkene beskytter enkeltindivider og samfunn samtidig som de fremmer innovasjon og fremgang.
4. Tenk på hvordan vi bidrar til de juridiske rammeverkene og former dem. Beste praksis og politiske rammeverk er ikke tomme ord, men praktiske verktøy for å gjøre ny teknologi til hjelpemidler i stedet for truende trusler. Å ha beslutningstakere, forskere, stor teknologi og fremvoksende teknologi i ett rom er essensielt for å balansere samfunnets og bedriftens interesser omkring AI. Juridiske rammeverk må tilpasses den fremvoksende teknologien til AI. Vi må sikre at disse rammeverkene beskytter enkeltindivider og samfunn samtidig som de fremmer innovasjon og fremgang.

Sammendrag

Dette er en veldig grunnleggende syklus for å integrere AI-basert fremvoksende teknologi i våre samfunn. Ettersom vi fortsetter å kjempe med kompleksiteten ved AI-etikken, er det essensielt å forbli dedikert til å finne løsninger som prioriterer sikkerhet, etikk og samfunnets velvære. Og disse ordene er ikke tomme ord, men det harde arbeidet med å sette alle puslene sammen daglig.

Disse ordene er basert på min egen erfaring og konklusjoner.

Anna er sjef for etikk og samarbeid i Respeecher, en Emmy-prisvinnende teknologi for stemmekloning basert i Ukraina. Anna er en tidligere politisk rådgiver i Reface, en AI-drevet syntetisk medieapp og en teknisk medgrunnlegger av mot-desinformasjon verktøyet Cappture finansiert av Startup Wise Guys akseleratorprogram. Anna har 11 års erfaring med sikkerhets- og forsvarspolitikk, teknologi og resilientbygging. Hun er en tidligere forskningsstipendiat ved International Centre for Defence and Security i Tallinn og Prague Security Studies Institute. Hun har også vært rådgiver for større ukrainske selskaper om resilientbygging som en del av Hybrid warfare Task Force ved Kyiv School of Economics.