Refresh

This website www.unite.ai/no/ai-forskere-foresl%C3%A5r-%C3%A5-sette-premie-p%C3%A5-ai-bias-for-%C3%A5-gj%C3%B8re-ai-mer-etisk/ is currently offline. Cloudflare's Always Online™ shows a snapshot of this web page from the Internet Archive's Wayback Machine. To check for the live version, click Refresh.

stub AI-forskere foreslår å sette premie på AI-bias for å gjøre AI mer etisk - Unite.AI
Kontakt med oss

etikk

AI-forskere foreslår å sette premie på AI-bias for å gjøre AI mer etisk

mm

Publisert

 on

Et team av AI-forskere fra selskaper og AI-utviklingslaboratorier som Intel, Google Brain og OpenAI har anbefalt bruk av dusører for å sikre etisk bruk av AI. Forskerteamet ga nylig ut en rekke forslag angående etisk AI-bruk, og de inkluderte et forslag om at det å belønne folk for å oppdage skjevheter i AI kan være en effektiv måte å gjøre AI mer rettferdig på.

Som VentureBeat rapporterer, gikk forskere fra en rekke selskaper over hele USA og Europa sammen for å sette sammen et sett med etiske retningslinjer for AI-utvikling, samt forslag til hvordan man kan oppfylle retningslinjene. Et av forslagene forskerne kom med var å tilby dusører til utviklere som finner skjevheter innenfor AI-programmer. Forslaget ble fremsatt i et papir med tittelen "Mot pålitelig AI-utvikling: Mekanismer for å støtte verifiserbare påstander".

Som eksempler på skjevhetene som forskerteamet håper å ta tak i, har partiske data og algoritmer blitt funnet i alt fra helsetjenester til ansiktsgjenkjenningssystemer brukt av rettshåndhevelse. En slik forekomst av skjevhet er risikovurderingsverktøyet PATTERN som nylig ble brukt av det amerikanske justisdepartementet for å triagere fanger og bestemme hvilke som kan sendes hjem når man reduserer fengselsbefolkningen som svar på koronaviruspandemien.

Praksisen med å belønne utviklere for å finne uønsket oppførsel i dataprogrammer er en gammel, men dette kan være første gang et aI-etikkstyre seriøst har fremmet ideen som et alternativ for å bekjempe AI-bias. Selv om det er usannsynlig at det er nok AI-utviklere til å finne nok skjevheter til at AI kan sikres etisk, vil det fortsatt hjelpe selskaper med å redusere generell skjevhet og få en følelse av hva slags skjevheter som lekker inn i AI-systemene deres.

Forfatterne av artikkelen forklarte at bug-bounty-konseptet kan utvides til AI med bruk av skjevheter og sikkerhetspremier, og at riktig bruk av denne teknikken kan føre til bedre dokumenterte datasett og modeller. Dokumentasjonen vil bedre reflektere begrensningene til både modellen og dataene. Forskerne bemerker til og med at den samme ideen kan brukes på andre AI-egenskaper som tolkning, sikkerhet og personvern.

Ettersom mer og mer diskusjon oppstår rundt de etiske prinsippene til AI, har mange bemerket at prinsipper alene ikke er nok, og at det må iverksettes tiltak for å holde AI etisk. Forfatterne av artikkelen bemerker at "eksisterende forskrifter og normer i industri og akademia er utilstrekkelige til å sikre ansvarlig AI-utvikling." Medgründer av Google Brain og AI-industrileder Andrew Ng også mente at veiledende prinsipper alene mangler evnen til å sikre at AI brukes ansvarlig og rettferdig, og sier at mange av dem må være mer eksplisitte og ha handlingsdyktige ideer.

Bias dusørjaktanbefalingen fra det kombinerte forskerteamet er et forsøk på å bevege seg utover etiske prinsipper til et område med etisk handling. Forskerteamet kom også med en rekke andre anbefalinger som kan stimulere til etisk handling på AI-feltet.

Forskerteamet kom med en rekke andre anbefalinger som selskaper kan følge for å gjøre bruken av AI mer etisk. De foreslår at en sentralisert database over AI-hendelser bør opprettes og deles blant det bredere AI-fellesskapet. Tilsvarende foreslår forskerne at det skal etableres et revisjonsspor og at disse sporene skal bevare informasjon om opprettelse og distribusjon av sikkerhetskritiske applikasjoner i AI-plattformer.

For å bevare folks personvern, foreslo forskerteamet at personvernsentrerte teknikker som kryptert kommunikasjon, forent læring og differensiert personvern bør alle brukes. Utover dette foreslo forskerteamet at åpen kildekode-alternativer bør gjøres allment tilgjengelig og at kommersielle AI-modeller bør granskes nøye. Til slutt foreslår forskerteamet at statlige midler økes slik at akademiske forskere kan verifisere påstander om maskinvareytelse.