mozzicone Bradford Newman, presidente di North America Trade Secrets Practice - Serie di interviste - Unite.AI
Seguici sui social

interviste

Bradford Newman, Presidente di North America Trade Secrets Practice – Serie di interviste

mm

Pubblicato il

 on

Bradford è specializzato in questioni relative ai segreti commerciali e all'intelligenza artificiale. È il presidente del sottocomitato AI dell'ABA. Riconosciuto dal Daily Journal nel 2019 come uno dei 20 migliori avvocati di intelligenza artificiale in California, Bradford è stato determinante nel proporre una legislazione federale sull'IA sul posto di lavoro e sulla proprietà intellettuale che nel 2018 è stata trasformata in un disegno di legge di discussione della Camera dei rappresentanti degli Stati Uniti. Ha inoltre sviluppato la supervisione dell'IA e le migliori pratiche di governance aziendale progettate per garantire l'equità algoritmica.

Che cosa ha inizialmente acceso il tuo interesse per l'intelligenza artificiale? 

Da molti anni rappresento i principali innovatori e produttori mondiali di prodotti e tecnologie di intelligenza artificiale. Il mio interesse è sempre stato quello di andare dietro le quinte e comprendere gli aspetti legali e tecnici dell’apprendimento automatico e osservare l’evoluzione dell’intelligenza artificiale. Sono affascinato da ciò che è possibile ottenere per applicazioni in vari domini.

 

Sei un feroce sostenitore della regolamentazione razionale dell'intelligenza artificiale, in particolare nella regolamentazione che protegge la salute pubblica, puoi discutere quali sono alcune delle tue principali preoccupazioni?  

Credo che siamo nelle prime fasi di una delle rivoluzioni più profonde che l'umanità abbia vissuto. L'intelligenza artificiale ha il potenziale per avere un impatto su ogni aspetto della nostra vita, dal momento in cui ci svegliamo la mattina al momento in cui andiamo a dormire, e anche mentre dormiamo. Molte delle applicazioni dell'IA avranno un impatto positivo sulla qualità delle nostre vite e probabilmente sulla nostra longevità come specie.

In questo momento, dal punto di vista dell'informatica e dell'apprendimento automatico, gli esseri umani sono ancora molto coinvolti nel processo, dalla codifica degli algoritmi, alla comprensione dei set di dati di addestramento, all'elaborazione dei risultati, al riconoscimento delle carenze e alla produzione della tecnologia.

Ma siamo in una corsa contro il tempo su due fronti importanti. Innanzitutto, quello che viene comunemente definito il problema della "scatola nera": il coinvolgimento umano e la comprensione dell'IA diminuiranno nel tempo con l'evolversi della sofisticazione dell'IA (si pensi alle ANN). E in secondo luogo, aumenterà l'uso dell'IA da parte di governi e interessi privati.

La mia preoccupazione è che l'intelligenza artificiale venga utilizzata, sia intenzionalmente che non intenzionalmente, in modi che sono in contrasto con gli ideali democratici occidentali di libertà e libertà individuali.

 

Come affrontiamo queste preoccupazioni? 

La società è al punto in cui dobbiamo risolvere non ciò che è possibile rispetto all'IA, ma ciò che dovrebbe essere proibito e/o parzialmente vincolato.

Innanzitutto, dobbiamo identificare in modo specifico le decisioni che non possono mai essere prese in tutto o in parte dall'output algoritmico generato dall'IA. Ciò significa che anche in situazioni in cui ogni esperto concorda sul fatto che i dati in entrata e in uscita sono totalmente imparziali, trasparenti e accurati, deve esserci un divieto legale di utilizzarli per qualsiasi tipo di processo decisionale predittivo o sostanziale.

Certo, questo è controintuitivo in un mondo in cui desideriamo ardentemente la certezza matematica, ma stabilire una "no fly zone" dell'IA è essenziale per preservare le libertà che tutti teniamo e che fungono da fondamento per la nostra società.

In secondo luogo, per altre decisioni identificate basate sull'analisi dell'IA che non sono del tutto vietate, abbiamo bisogno di una legislazione che definisca chiaramente quelle in cui un essere umano deve essere coinvolto nel processo decisionale.

 

Sei stato determinante nel proporre una legislazione federale sull'IA sul posto di lavoro e sulla proprietà intellettuale che nel 2018 è stata trasformata in una bozza di discussione della Camera dei rappresentanti degli Stati Uniti. Puoi discutere alcune di queste proposte?

L'AI Data Protection Act ha lo scopo di promuovere l'innovazione e progettato per (1) aumentare la trasparenza nella natura e nell'uso dell'intelligenza artificiale e per costruire la fiducia del pubblico nell'intelligenza artificiale; (2) affrontare l'impatto dell'intelligenza artificiale sul mercato del lavoro e (3) proteggere la salute e la sicurezza pubblica.

Ha diversi componenti chiave. Ad esempio, proibisce l'esclusivo affidamento delle società coperte sull'intelligenza artificiale per prendere determinate decisioni, inclusa una decisione riguardante l'assunzione di persone o il rifiuto o la limitazione di cure mediche, e vieta agli emittenti di assicurazioni mediche di prendere decisioni in merito alla copertura di un trattamento medico esclusivamente sulla base l'analisi dell'intelligenza artificiale. Istituisce inoltre l'Artificial Intelligence Board, una nuova agenzia federale incaricata di responsabilità specifiche per la regolamentazione dell'IA in quanto riguarda la salute e la sicurezza pubblica. E richiede alle entità interessate di nominare un Chief Artificial Intelligence Officer.

 

Hai anche sviluppato la supervisione dell'IA e le migliori pratiche di governance aziendale progettate per garantire l'equità algoritmica. Quali sono alcuni dei problemi attuali che vedi con equità o pregiudizi nei sistemi di intelligenza artificiale? 

Questo argomento è stato al centro di un attento esame da parte degli accademici e sta ora suscitando l'interesse delle agenzie governative statunitensi, come la Commissione per le pari opportunità di lavoro (EEOC) e l'ordine dei querelanti. Il più delle volte, il nesso di causalità deriva da un difetto nei set di dati di addestramento o dalla mancanza di comprensione e trasparenza nell'ambiente di test. Ciò è aggravato dalla mancanza di proprietà centrale e supervisione dell'IA da parte dell'alta dirigenza.

Questa mancanza di comprensione tecnica e consapevolezza della situazione è un problema di responsabilità significativo. Ho parlato con diversi importanti avvocati del querelante che sono a caccia di casi di pregiudizio dell'IA.

 

Il deep learning spesso soffre del problema della scatola nera, per cui inseriamo dati in una rete neurale artificiale (ANN) e quindi riceviamo un output, senza alcun mezzo per sapere come è stato generato quell'output. Credi che questo sia un grosso problema?  

Io faccio. E poiché gli algoritmi e le reti neurali continuano a evolversi e gli esseri umani non sono sempre più "nel giro", c'è il rischio reale di superare il punto critico in cui non saremo più in grado di comprendere gli elementi critici della funzione e dell'output.

 

Con COVID-19 i paesi di tutto il mondo hanno introdotto Sistemi di sorveglianza statale alimentati dall'intelligenza artificiale. Quanto di un problema hai con potenziali abusi con questo tipo di sorveglianza?

È ingenuo e, francamente, irresponsabile dal punto di vista dei diritti e della libertà individuali, ignorare o minimizzare il rischio di abusi. Mentre il tracciamento dei contatti sembra prudente nel bel mezzo di una pandemia globale e il riconoscimento facciale basato sull'intelligenza artificiale fornisce una misura efficace per fare ciò che gli esseri umani da soli non sarebbero in grado di realizzare, la società deve istituire divieti legali sull'uso improprio insieme a efficaci meccanismi di controllo e applicazione. Altrimenti, stiamo cedendo allo stato un elemento centrale dei nostri diritti fondamentali individuali. Una volta distribuito all'ingrosso, questo elemento fondamentale della nostra libertà e privacy non verrà restituito.

 

In precedenza hai affermato che "Dobbiamo stabilire una" no-fly zone "AI se vogliamo preservare le libertà che tutti gli americani tengono e che servono come fondamento della nostra società". Potresti condividere alcune di queste preoccupazioni che hai?  

Quando si parla di intelligenza artificiale, dobbiamo sempre concentrarci sullo scopo essenziale dell'IA: produrre analisi predittive accurate da set di dati molto grandi che vengono poi utilizzati per classificare gli esseri umani e prendere decisioni. Successivamente, dobbiamo esaminare chi sono i responsabili delle decisioni, cosa stanno decidendo e su cosa basano le loro decisioni.

Se comprendiamo che i responsabili delle decisioni sono coloro che hanno il maggiore impatto sulla nostra salute, mezzi di sussistenza e libertà: datori di lavoro, proprietari terrieri, medici, assicuratori, forze dell'ordine e ogni altra impresa privata, commerciale e governativa che può generare, raccogliere o acquistare analisi dell'IA - diventa facile vedere che in una democrazia liberale occidentale, al contrario di un regime totalitario, dovrebbero esserci decisioni che non dovrebbero, e non devono, essere lasciate esclusivamente ad AI.

Mentre vengono in mente molte decisioni ovvie, come proibire l'incarcerazione di qualcuno prima che venga commesso un crimine, l'adozione diffusa dell'IA in ogni aspetto della nostra vita presenta casi molto più irritanti di enigmi etici. Ad esempio, se un algoritmo prevede con precisione che i lavoratori che pubblicano foto sui social media di vacanze al mare in cui bevono alcolici smettano o vengano licenziati in media 3.5 anni prima rispetto a quelli che pubblicano foto di se stessi mentre si allenano, se il primo categoria essere negata una promozione o un aumento basato esclusivamente sull'output algoritmico? Se un algoritmo determina correttamente che gli adolescenti che giocano ai videogiochi in media per più di 2 ore al giorno hanno meno probabilità di laurearsi in un'università quadriennale, a tali studenti dovrebbe essere negata l'ammissione? Se si determina che le donne asiatiche sulla sessantina ricoverate in terapia intensiva per sintomi correlati a COVID-60 hanno un tasso di sopravvivenza più elevato rispetto agli uomini afroamericani sulla settantina, le donne dovrebbero ricevere cure mediche preferenziali?

Questi esempi troppo semplificati sono solo alcune delle numerose decisioni in cui fare affidamento solo sull'intelligenza artificiale contraddice le nostre opinioni su ciò che richiedono i diritti umani individuali.

 

C'è qualcos'altro che vorresti condividere su AI o Baker McKenzie? 

Sono estremamente entusiasta di aiutare a guidare La vera pratica internazionale di intelligenza artificiale di Baker McKenzie nel paesaggio in evoluzione. Riconosciamo che i nostri clienti sono affamati di indicazioni su tutto ciò che riguarda l'intelligenza artificiale, dalla negoziazione dei contratti, alla creazione di una supervisione interna, all'evitare affermazioni di parzialità, alla comprensione del quadro normativo nazionale e internazionale emergente.

Le aziende vogliono fare la cosa giusta, ma sono pochissimi gli studi legali che hanno le competenze e la comprensione necessarie dell'intelligenza artificiale e dell'apprendimento automatico per poterle aiutare. Per quelli di noi che sono sia drogati di intelligenza artificiale che avvocati, questo è un momento entusiasmante per aggiungere valore reale ai nostri clienti.

Grazie per le fantastiche risposte riguardanti alcune di queste importanti preoccupazioni della società che coinvolgono l'IA. I lettori che desiderano saperne di più su Bradford Newman dovrebbero clicca qui.

Socio fondatore di unite.AI e membro di Consiglio tecnologico di Forbes, Antonio è un futurista che è appassionato del futuro dell'intelligenza artificiale e della robotica.

È anche il Fondatore di Titoli.io, un sito web che si concentra sugli investimenti in tecnologie dirompenti.