Tankeledare
Hur man operationaliserar AI-etik?

AI handlar om att optimera processer, inte om att eliminera människor från dem. Ansvarsskyldighet förblir avgörande i den övergripande idén att AI kan ersätta människor. Medan teknologi och automatiserade system har hjälpt oss att uppnå bättre ekonomiska utgångar under det senaste århundradet, kan de verkligen ersätta tjänster, kreativitet och djup kunskap? Jag tror fortfarande att de inte kan, men de kan optimera den tid som läggs på att utveckla dessa områden.
Ansvarsskyldighet bygger tungt på immateriella rättigheter, förutseende av teknologins påverkan på kollektiva och individuella rättigheter, och säkerställande av säkerhet och skydd av data som används för utbildning och delning vid utveckling av nya modeller. Medan vi fortsätter att utvecklas inom teknologi, har ämnet AI-etik blivit alltmer relevant. Detta väcker viktiga frågor om hur vi reglerar och integrerar AI i samhället samtidigt som vi minimerar potentiella risker.
Jag arbetar nära med en aspekt av AI – röstkloning. Röst är en viktig del av en persons likhet och biometrisk data som används för att utbilda röstmodeller. Skyddet av likhet (lagliga och politiska frågor), säkring av röstdata (sekretesspolicyer och cybersäkerhet), och fastställande av gränser för röstkloningstillämpningar (etiska frågor som mäter påverkan) är viktiga att överväga medan man bygger produkten.
Vi måste utvärdera hur AI överensstämmer med samhällets normer och värderingar. AI måste anpassas för att passa inom samhällets befintliga etiska ram, säkerställande att det inte påför ytterligare risker eller hotar etablerade samhällsnormer. Teknologins påverkan täcker områden där AI ger makt åt en grupp individer samtidigt som den eliminerar andra. Denna existentiella dilemma uppstår vid varje stadium av vår utveckling och samhällelig tillväxt eller nedgång. Kan AI introducera mer desinformation i informations ekosystem? Ja. Hur hanterar vi den risken på produktnivå, och hur utbildar vi användare och beslutsfattare om det? Svaren ligger inte i farorna med teknologin i sig, utan i hur vi paketerar den i produkter och tjänster. Om vi inte har tillräckligt med personal på produktteam för att se bortom och utvärdera teknologins påverkan, kommer vi att fastna i en cykel av att lösa röran.
Integreringen av AI i produkter väcker frågor om produktsäkerhet och förebyggande av AI-relaterad skada. Utvecklingen och implementeringen av AI bör prioritera säkerhet och etiska överväganden, vilket kräver resursallokering till relevanta team.
För att underlätta den framväxande diskussionen om operationalisering av AI-etik föreslår jag denna grundläggande cykel för att göra AI etiskt på produktnivå:
1. Undersök de lagliga aspekterna av AI och hur vi reglerar det, om det finns regleringar. Dessa inkluderar EU:s lag om AI, Digital Service Act, Storbritanniens Online Safety Bill och GDPR om dataskydd. Ramverken är pågående arbeten och behöver input från branschledare (ny teknik) och ledare. Se punkt (4) som slutför den föreslagna cykeln.
2. Överväg hur vi anpassar AI-baserade produkter till samhällets normer utan att påföra fler risker. Påverkar det informationssäkerhet eller arbetssektorn, eller kränker det upphovsrätt och immateriella rättigheter? Skapa en kris-scenariobaserad matris. Jag hämtar detta från min internationella säkerhetsbakgrund.
3. Bestäm hur man integrerar ovanstående i AI-baserade produkter. När AI blir mer avancerat, måste vi säkerställa att det överensstämmer med samhällets värderingar och normer. Vi måste vara proaktiva i att hantera etiska överväganden och integrera dem i AI-utveckling och implementering. Om AI-baserade produkter, som generativ AI, hotar att sprida mer desinformation, måste vi införa mitigationsfunktioner, moderering, begränsa tillgång till kärnteknologi och kommunicera med användare. Det är viktigt att ha AI-etik och säkerhetsteam i AI-baserade produkter, vilket kräver resurser och ett företagsperspektiv.
Överväg hur vi kan bidra till och forma lagliga ramverk. Bästa praxis och policyramverk är inte bara modeord, utan praktiska verktyg som hjälper ny teknik att fungera som hjälpmedel snarare än hotande hot. Att ha beslutsfattare, forskare, stortech och ny teknik i ett rum är avgörande för att balansera samhälleliga och affärsintressen kring AI. Lagliga ramverk måste anpassas till den framväxande teknologin AI. Vi måste säkerställa att dessa ramverk skyddar individer och samhälle samtidigt som de främjar innovation och framsteg.
4. Tänk på hur vi bidrar till de lagliga ramverken och formar dem. Bästa praxis och policyramverk är inte tomma modeord, utan praktiska verktyg för att göra den nya teknologin fungera som hjälpmedel, inte som hotande hot. Att ha beslutsfattare, forskare, stortech och ny teknik i ett rum är avgörande för att balansera samhälleliga och affärsintressen kring AI. Lagliga ramverk måste anpassas till den framväxande teknologin AI. Vi måste säkerställa att dessa ramverk skyddar individer och samhälle samtidigt som de främjar innovation och framsteg.
Sammanfattning
Detta är en riktigt grundläggande cirkel för att integrera AI-baserad ny teknik i våra samhällen. Medan vi fortsätter att brottas med komplexiteten i AI-etik, är det avgörande att förbli engagerade i att hitta lösningar som prioriterar säkerhet, etik och samhälleligt välbefinnande. Och dessa är inte tomma ord, utan det hårda arbetet med att lägga alla pusselbitar ihop dagligen.
Dessa ord är baserade på min egen erfarenhet och slutsatser.












