Regulering
Googles CEO ber om økt regulering for å unngå “negative konsekvenser av AI”

I fjor ble det rettet stadig mer oppmerksomhet mot reguleringen av AI-bransjen, og dette året ser ut til å fortsette trenden. Nylig støttet Sundar Pichai, CEO i Google og Alphabet Inc., regulering av AI på en økonomisk tenketank i Brugel.
Pichais kommentarer var sannsynligvis gjort i forventning av nye EU-planer for å regulere AI, som vil bli avdekket om noen uker. Det er mulig at EU-reguleringene kan inneholde politikker som pålegger visse standarder for AI brukt i transport, helsevesen og andre høyrisikosektorer. De nye EU-reguleringene kan også kreve økt transparens når det gjelder AI-systemer og -plattformer.
Ifølge Bloomberg har Google tidligere forsøkt å utfordre konkurransefines og opphavsrettsenforcing i EU. Til tross for tidligere forsøk på å motarbeide visse reguleringer i Europa, sa Pichai at regulering er velkommen så lenge den tar “en proporsjonal tilnærming, som balanserer potensielle skader med sosiale muligheter”.
Pichai skrev nylig en meningsartikkel i Financial Times, der han innrømmet at AI, sammen med mange muligheter til å forbedre samfunnet, også har potensial til å bli misbrukt. Pichai sa at reguleringene bør hjelpe til å unngå “negative konsekvenser av AI”, og nevnte misbruk av ansiktsgjenkjenning og deepfakes som negative anvendelser av AI. Pichai sa at internasjonal harmonisering er nødvendig for at reguleringer skal fungere, og at det derfor må være enighet om kjernverdier. Ut over det sa Pichai at det er AI-selskapers ansvar, som Google, å vurdere hvordan AI kan brukes på en etisk måte, og at dette er grunnen til at Google innførte sine egne standarder for etisk AI-bruk i 2018.
Pichai sa at reguleringsmyndigheter og -politikker vil spille en viktig rolle i å sikre at AI brukes på en etisk måte, men at disse myndighetene ikke trenger å starte fra scratch. Pichai foreslo at reguleringer kan se på tidligere etablerte reguleringer for inspirasjon, som Europas generelle personvernforordning. Pichai skrev også at etisk AI-regulering kan potensielt være både bred og fleksibel, med regulering som gir generell veiledning som kan tilpasses for spesifikke implementeringer i spesifikke AI-sektorer. Nyere teknologier som selvkjørende kjøretøy vil kreve nye regler og politikker som veier fordeler og kostnader mot hverandre, mens for mer etablerte områder som medisinske enheter kan eksisterende rammer være et godt utgangspunkt.
Til slutt sa Pichai at Google ønsker å samarbeide med regulatorene for å utvikle politikker og finne løsninger som vil balansere avveininger, Pichai skrev i Financial Times:
“Vi ønsker å være en hjelpsom og engasjert partner for regulatorene mens de bekjempes med de uunngåelige spenningene og avveininger. Vi tilbyr vår ekspertise, erfaring og verktøy mens vi navigerer disse problemene sammen.”
Mens noen har applaudert Google for å ta en holdning til behovet for regulering for å sikre etisk AI-bruk, fortsetter debatten om omfanget av det er passende at AI-selskaper skal være involvert i skapingen av reguleringer.
Så langt som de kommende EU-reguleringene selv, er det mulig at EU følger en risikobasert regelverk, som vil legge strengere restriksjoner på høyrisikoutgifter av AI. Dette inkluderer restriksjoner som kan være mye strengere enn Google håper på, inkludert en mulig flerårig forbud mot ansiktsgjenkjenningsteknologi (med unntak for forskning og sikkerhet). I motsetning til EU’s mer restriktive tilnærming, har USA presset på for relativt lette reguleringer. Det er fortsatt å se hvordan de forskjellige reguleringstrategiene vil påvirke AI-utvikling og samfunnet i de to forskjellige regionene av verden.












