Regolamentazione
Il CEO di Google chiede una regolamentazione aumentata per evitare le “conseguenze negative dell’AI”

L’anno scorso ha visto un’attenzione crescente rivolta alla regolamentazione dell’industria dell’AI, e quest’anno sembra continuare la tendenza. Recentemente, Sundar Pichai, il CEO di Google e Alphabet Inc., ha sostenuto la regolamentazione dell’AI in un think tank economico che si tiene a Brugel.
I commenti di Pichai sono stati probabilmente fatti in anticipo dei nuovi piani dell’UE per regolamentare l’AI, che saranno rivelati tra poche settimane. È possibile che le regolamentazioni dell’UE contengano politiche che impongono legalmente determinati standard per l’AI utilizzata nei settori dei trasporti, della sanità e in altri settori ad alto rischio. Le nuove regolamentazioni dell’UE possono anche richiedere una maggiore trasparenza riguardo ai sistemi e alle piattaforme di AI.
Secondo Bloomberg, Google ha precedentemente tentato di sfidare le multe antitrust e l’applicazione del diritto d’autore nell’UE. Nonostante i precedenti tentativi di opporsi a determinati quadri regolamentari in Europa, Pichai ha affermato che la regolamentazione è benvenuta finché si adotta “un approccio proporzionato, bilanciando i danni potenziali con le opportunità sociali”.
Pichai ha recentemente scritto un pezzo di opinione sul Financial Times, in cui ha riconosciuto che, insieme a molte opportunità per migliorare la società, l’AI ha anche il potenziale per essere utilizzata in modo improprio. Pichai ha affermato che le regolamentazioni dovrebbero aiutare a evitare le “conseguenze negative dell’AI”, citando l’uso abusivo del riconoscimento facciale e dei deepfake come applicazioni negative dell’AI. Pichai ha affermato che l’allineamento internazionale è necessario per i principi regolamentari, e che quindi è necessario raggiungere un accordo sui valori fondamentali. Oltre a ciò, Pichai ha detto che è responsabilità delle aziende di AI come Google considerare come l’AI possa essere utilizzata in modo etico e che è per questo che Google ha adottato i propri standard per l’uso etico dell’AI nel 2018.
Pichai ha affermato che gli organismi regolamentari governativi e le politiche giocheranno un ruolo importante nell’assicurarsi che l’AI sia utilizzata in modo etico, ma che questi organismi non devono iniziare da zero. Pichai suggerisce che le entità regolamentari possano guardare alle regolamentazioni precedentemente stabilite per trarre ispirazione, come il Regolamento generale sulla protezione dei dati dell’Europa. Pichai ha anche scritto che la regolamentazione etica dell’AI può potenzialmente essere sia ampia che flessibile, con la regolamentazione che fornisce indicazioni generali che possono essere adattate per implementazioni specifiche in settori specifici di AI. Le nuove tecnologie come i veicoli autonomi richiederanno nuove regole e politiche che pesano i benefici e i costi l’uno contro l’altro, mentre per terreni più battuti come i dispositivi medici, i quadri esistenti possono essere un buon punto di partenza.
Infine, Pichai ha affermato che Google vuole collaborare con i regolamentatori per sviluppare politiche e trovare soluzioni che bilanceranno i compromessi, Pichai ha scritto sul Financial Times:
“Vogliamo essere un partner utile e impegnato per i regolamentatori mentre lottano con le inevitabili tensioni e i compromessi. Offriamo la nostra esperienza, la nostra esperienza e gli strumenti mentre navigiamo questi problemi insieme”.
Mentre alcuni hanno applaudito Google per aver preso una posizione sulla necessità di regolamentazione per garantire un uso etico dell’AI, il dibattito continua sull’estensione alla quale è opportuno che le aziende di AI siano coinvolte nella creazione di quadri regolamentari.
Per quanto riguarda le regolamentazioni dell’UE in arrivo, è possibile che l’UE stia perseguendo un sistema di regole basato sul rischio, che imporrebbe restrizioni più strette alle applicazioni ad alto rischio dell’AI. Ciò include restrizioni che potrebbero essere molto più strette di quanto Google spera, compreso un possibile divieto pluriennale della tecnologia di riconoscimento facciale (con eccezioni per la ricerca e la sicurezza). In contrasto con gli approcci più restrittivi dell’UE, gli Stati Uniti hanno spinto per regolamentazioni relativamente leggere. Rimane da vedere come le diverse strategie di regolamentazione impatteranno sullo sviluppo dell’AI e sulla società nel suo complesso, nelle due diverse regioni del globo.












