stub Hvordan operationaliserer man AI-etik? - Unite.AI
Følg os

Tanke ledere

Hvordan operationaliserer man AI-etik?

mm

Udgivet

 on

AI handler om at optimere processer, ikke at eliminere mennesker fra dem. Ansvarlighed er fortsat afgørende i den overordnede idé om, at kunstig intelligens kan erstatte mennesker. Selvom teknologi og automatiserede systemer har hjulpet os med at opnå bedre økonomiske resultater i det seneste århundrede, kan de virkelig erstatte tjenester, kreativitet og dyb viden? Det tror jeg stadig på, at de ikke kan, men de kan optimere den tid, der bruges på at udvikle disse områder.

Ansvarlighed er stærkt afhængig af intellektuelle ejendomsrettigheder, forudser teknologiens indvirkning på kollektive og individuelle rettigheder, og sikring af sikkerheden og beskyttelsen af ​​data, der bruges til træning og deling, mens der udvikles nye modeller. I takt med at vi fortsætter med at udvikle os inden for teknologi, er emnet AI-etik blevet mere og mere relevant. Dette rejser vigtige spørgsmål om, hvordan vi regulerer og integrerer AI i samfundet, mens vi minimerer potentielle risici.

Jeg arbejder tæt sammen med et aspekt af kunstig intelligens – stemmekloning. Stemme er en vigtig del af en persons lighed og biometriske data, der bruges til at træne stemmemodeller. Beskyttelse af lighed (juridiske og politiske spørgsmål), sikring af stemmedata (privatlivspolitikker og cybersikkerhed) og fastlæggelse af grænserne for stemmekloningsapplikationer (etiske spørgsmål, der måler effekt) er afgørende at overveje, mens produktet bygges.

Vi skal evaluere, hvordan AI stemmer overens med samfundets normer og værdier. AI skal tilpasses til at passe inden for samfundets eksisterende etiske rammer, så det sikres, at det ikke påfører yderligere risici eller truer etablerede samfundsnormer. Effekten af ​​teknologi dækker områder, hvor AI styrker én gruppe af individer, mens andre eliminerer. Dette eksistentielle dilemma opstår på alle stadier af vores udvikling og samfundsmæssige vækst eller tilbagegang. Kan AI introducere mere desinformation i informationsøkosystemer? Ja. Hvordan håndterer vi denne risiko på produktniveau, og hvordan uddanner vi brugere og politikere om det? Svarene ligger ikke i selve teknologiens farer, men i hvordan vi pakker den ind i produkter og tjenester. Hvis vi ikke har nok arbejdskraft på produktteams til at se ud over og vurdere virkningen af ​​teknologi, vil vi sidde fast i en cyklus med at rette rod.

Integrationen af ​​AI i produkter rejser spørgsmål om produktsikkerhed og forebyggelse af AI-relateret skade. Udviklingen og implementeringen af ​​kunstig intelligens bør prioritere sikkerhedsmæssige og etiske overvejelser, hvilket kræver ressourceallokering til relevante teams.

For at lette den nye diskussion om operationalisering af AI-etik foreslår jeg denne grundlæggende cyklus for at gøre AI etisk på produktniveau:

1. Undersøg de juridiske aspekter af AI, og hvordan vi regulerer det, hvis der findes regler. Disse omfatter EU's Act on AI, Digital Service Act, UK's Online Safety Bill og GDPR om databeskyttelse. Rammerne er igangværende arbejde og har brug for input fra branchens frontløbere (emerging tech) og ledere. Se punkt (4), der fuldender den foreslåede cyklus.

2. Overvej, hvordan vi tilpasser AI-baserede produkter til samfundets normer uden at pålægge flere risici. Påvirker det informationssikkerheden eller jobsektoren, eller krænker det ophavsret og IP-rettigheder? Opret en krisescenariebaseret matrix. Jeg trækker dette fra min internationale sikkerhedsbaggrund.

3. Bestem, hvordan ovenstående skal integreres i AI-baserede produkter. Efterhånden som AI bliver mere sofistikeret, skal vi sikre, at den stemmer overens med samfundets værdier og normer. Vi skal være proaktive i forhold til etiske overvejelser og integrere dem i AI-udvikling og implementering. Hvis AI-baserede produkter, som generativ AI, truer med at sprede mere desinformation, skal vi indføre afbødende funktioner, moderation, begrænse adgangen til kerneteknologi og kommunikere med brugerne. Det er afgørende at have AI-etik og sikkerhedsteams i AI-baserede produkter, hvilket kræver ressourcer og en virksomhedsvision.

Overvej, hvordan vi kan bidrage til og forme juridiske rammer. Bedste praksis og politiske rammer er ikke blot buzzwords; de er praktiske værktøjer, der hjælper ny teknologi med at fungere som hjælpeværktøjer frem for truende trusler. At bringe politiske beslutningstagere, forskere, big tech og nye teknologier sammen er afgørende for at balancere samfundsmæssige og forretningsmæssige interesser omkring AI. Lovlige rammer skal tilpasse sig den nye teknologi inden for kunstig intelligens og sikre, at de beskytter individer og samfund, samtidig med at de fremmer innovation og fremskridt.

4. Tænk på, hvordan vi bidrager til de juridiske rammer og former dem. Den bedste praksis og politiske rammer er ikke tomme buzzwords, men ganske praktiske værktøjer til at få den nye teknologi til at fungere som hjælpeværktøjer, ikke som truende trusler. At have politikere, forskere, big tech og nye teknologier i ét rum er afgørende for at balancere samfunds- og forretningsinteresser omkring AI. Lovlige rammer skal tilpasses den nye teknologi inden for kunstig intelligens. Vi skal sikre, at disse rammer beskytter individer og samfund, samtidig med at de letter innovation og fremskridt.

Resumé

Dette er en virkelig grundlæggende cirkel for at integrere Ai-baserede nye teknologier i vores samfund. Mens vi fortsætter med at kæmpe med kompleksiteten af ​​AI-etik, er det vigtigt at forblive forpligtet til at finde løsninger, der prioriterer sikkerhed, etik og samfundsmæssig velvære. Og det er ikke tomme ord, men det hårde arbejde med at lægge alle puslespil dagligt.

Disse ord er baseret på mine egne erfaringer og konklusioner.

Anna er chef for etik og partnerskaber på Retaler, en Emmy-belønnet stemmekloningsteknologi baseret i Ukraine. Anna er en tidligere Policy Advisor hos Reface, en AI-drevet syntetisk medie-app og en teknisk medstifter af counter-disinformationsværktøjet Cappture finansieret af Startup Wise Guys accelerator-programmet. Anna har 11 års erfaring med sikkerheds- og forsvarspolitikker, teknologier og opbygning af modstandskraft. Hun er tidligere forskningsstipendiat ved Det Internationale Center for Forsvar og Sikkerhed i Tallinn og Prags Institut for Sikkerhedsstudier. Hun har også rådgivet store ukrainske virksomheder om opbygning af modstandsdygtighed som en del af Hybrid Warfare Task Force på Kyiv School of Economics.