Regulacje
CEO Google apeluje o zwiększenie regulacji, aby uniknąć “negatywnych konsekwencji AI”

W zeszłym roku wzrosło zainteresowanie regulacją branży AI, a ten rok wydaje się kontynuować ten trend. Niedawno Sundar Pichai, CEO Google i Alphabet Inc., poparł regulację AI podczas spotkania think tanku ekonomicznego w Brugel.
Komentarze Pichai zostały prawdopodobnie wygłoszone w oczekiwaniu nowych planów UE dotyczących regulacji AI, które zostaną ujawnione w ciągu kilku tygodni. Możliwe, że unijne regulacje będą zawierać polityki, które prawnie egzekwują określone standardy dla AI stosowanej w transporcie, opiece zdrowotnej i innych sektorach wysokiego ryzyka. Nowe unijne regulacje mogą również wymagać zwiększonej przejrzystości w odniesieniu do systemów i platform AI.
Według Bloomberga, Google wcześniej próbował zakwestionować grzywny antymonopolowe i egzekwowanie praw autorskich w UE. Pomimo wcześniejszych prób sprzeciwu wobec pewnych ram regulacyjnych w Europie, Pichai stwierdził, że regulacja jest mile widziana, o ile przyjmuje “proporcjonalne podejście, równoważąc potencjalne szkody z możliwościami społecznymi”.
Pichai niedawno napisał artykuł opinii w Financial Times, w którym przyznał, że wraz z wieloma możliwościami poprawy społeczeństwa, AI ma również potencjał być nadużywany. Pichai stwierdził, że regulacje powinny pomóc uniknąć “negatywnych konsekwencji AI”, cytując nadużywanie rozpoznawania twarzy i deepfakes jako negatywne zastosowania AI. Pichai stwierdził, że międzynarodowa współpraca jest konieczna do tego, aby zasady regulacyjne działały, i w związku z tym, konieczne jest uzgodnienie wartości podstawowych. Poza tym, Pichai powiedział, że jest to odpowiedzialność firm AI, takich jak Google, aby uwzględnić, w jaki sposób AI może być używany w sposób etyczny, i to dlatego Google przyjął własne standardy dla etycznego użytkowania AI w 2018 roku.
Pichai stwierdził, że rządowe organy regulacyjne i polityki będą odgrywać ważną rolę w zapewnieniu, że AI jest używany w sposób etyczny, ale że te organy nie muszą zaczynać od zera. Pichai sugeruje, że organy regulacyjne mogą szukać inspiracji w wcześniej ustanowionych regulacjach, takich jak europejska ogólna regulacja ochrony danych. Pichai również napisał, że etyczna regulacja AI może być zarówno szeroka, jak i elastyczna, z regulacjami dostarczającymi ogólnych wskazówek, które mogą być dostosowane do konkretnych wdrożeń w konkretnych sektorach AI. Nowe technologie, takie jak samochody autonomiczne, będą wymagać nowych zasad i polityk, które ważą korzyści i koszty względem siebie, podczas gdy dla bardziej znanych obszarów, takich jak urządzenia medyczne, istniejące ramy mogą być dobrym punktem wyjścia.
Wreszcie, Pichai stwierdził, że Google chce współpracować z regulatorami, aby opracować polityki i znaleźć rozwiązania, które będą równoważyć kompromisy, Pichai napisał w Financial Times:
“Chcemy być pomocnym i zaangażowanym partnerem dla regulatorów, gdy mają do czynienia z nieuniknionymi napięciami i kompromisami. Oferujemy naszą ekspertyzę, doświadczenie i narzędzia, gdy razem rozwiązujemy te problemy.”
Podczas gdy niektórzy przyjęli postawę Google w sprawie potrzeby regulacji, aby zapewnić etyczne użytkowanie AI, debata nad tym, w jakim stopniu odpowiednie jest, aby firmy AI były zaangażowane w tworzenie ram regulacyjnych, nadal trwa.
Jeśli chodzi o nadchodzące unijne regulacje, możliwe, że UE prowadzi system oparty na ryzyku, który będzie nakładał surowsze ograniczenia na aplikacje AI o wysokim ryzyku. Obejmuje to ograniczenia, które mogą być znacznie surowsze, niż Google sobie życzy, w tym potencjalny wieloletni zakaz technologii rozpoznawania twarzy (z wyjątkiem badań i bezpieczeństwa). W przeciwieństwie do bardziej restrykcyjnego podejścia UE, Stany Zjednoczone opowiadały się za relatywnie lekkimi regulacjami. Pozostaje to, aby zobaczyć, jak różne strategie regulacyjne wpłyną na rozwój AI i społeczeństwa na ogół, w dwóch różnych regionach świata.












