Seguici sui social

Bradford Newman, Presidente di North America Trade Secrets Practice – Serie di interviste

interviste

Bradford Newman, Presidente di North America Trade Secrets Practice – Serie di interviste

mm

Bradford è specializzato in questioni relative ai segreti commerciali e all'intelligenza artificiale. È il presidente del sottocomitato AI dell'ABA. Riconosciuto dal Daily Journal nel 2019 come uno dei 20 migliori avvocati di intelligenza artificiale in California, Bradford è stato determinante nel proporre una legislazione federale sull'IA sul posto di lavoro e sulla proprietà intellettuale che nel 2018 è stata trasformata in un disegno di legge di discussione della Camera dei rappresentanti degli Stati Uniti. Ha inoltre sviluppato la supervisione dell'IA e le migliori pratiche di governance aziendale progettate per garantire l'equità algoritmica.

Che cosa ha inizialmente acceso il tuo interesse per l'intelligenza artificiale? 

Da molti anni rappresento i principali innovatori e produttori mondiali di prodotti e tecnologie di intelligenza artificiale. Il mio interesse è sempre stato quello di andare dietro le quinte e comprendere gli aspetti legali e tecnici dell'apprendimento automatico, osservandone l'evoluzione. Sono affascinato dalle possibilità applicative in diversi ambiti.

 

Sei un feroce sostenitore della regolamentazione razionale dell'intelligenza artificiale, in particolare nella regolamentazione che protegge la salute pubblica, puoi discutere quali sono alcune delle tue principali preoccupazioni?  

Credo che siamo nelle fasi iniziali di una delle rivoluzioni più profonde che l'umanità abbia mai vissuto. L'intelligenza artificiale ha il potenziale per influenzare ogni aspetto della nostra vita, dal momento in cui ci svegliamo al mattino fino a quando andiamo a dormire, e anche mentre dormiamo. Molte delle applicazioni dell'intelligenza artificiale avranno un impatto positivo sulla qualità della nostra vita e, probabilmente, sulla nostra longevità come specie.

In questo momento, dal punto di vista dell'informatica e dell'apprendimento automatico, gli esseri umani sono ancora molto coinvolti nel processo, dalla codifica degli algoritmi, alla comprensione dei set di dati di addestramento, all'elaborazione dei risultati, al riconoscimento delle carenze e alla produzione della tecnologia.

Ma siamo in una corsa contro il tempo su due fronti principali. In primo luogo, quello che viene comunemente definito il problema della "scatola nera": il coinvolgimento umano e la comprensione dell'IA diminuiranno nel tempo, con l'evoluzione della sofisticazione dell'IA (si pensi alle reti neurali artificiali). In secondo luogo, l'uso dell'IA da parte di governi e interessi privati ​​aumenterà.

La mia preoccupazione è che l'intelligenza artificiale venga utilizzata, sia intenzionalmente che non intenzionalmente, in modi che sono in contrasto con gli ideali democratici occidentali di libertà e libertà individuali.

 

Come affrontiamo queste preoccupazioni? 

La società è al punto in cui dobbiamo risolvere non ciò che è possibile rispetto all'IA, ma ciò che dovrebbe essere proibito e/o parzialmente vincolato.

Innanzitutto, dobbiamo identificare in modo specifico le decisioni che non possono mai essere prese in tutto o in parte dall'output algoritmico generato dall'IA. Ciò significa che anche in situazioni in cui ogni esperto concorda sul fatto che i dati in entrata e in uscita sono totalmente imparziali, trasparenti e accurati, deve esserci un divieto legale di utilizzarli per qualsiasi tipo di processo decisionale predittivo o sostanziale.

Certo, questo è controintuitivo in un mondo in cui desideriamo ardentemente la certezza matematica, ma stabilire una "no fly zone" dell'IA è essenziale per preservare le libertà che tutti teniamo e che fungono da fondamento per la nostra società.

In secondo luogo, per altre decisioni identificate basate sull'analisi dell'IA che non sono del tutto vietate, abbiamo bisogno di una legislazione che definisca chiaramente quelle in cui un essere umano deve essere coinvolto nel processo decisionale.

 

Sei stato determinante nel proporre una legislazione federale sull'IA sul posto di lavoro e sulla proprietà intellettuale che nel 2018 è stata trasformata in una bozza di discussione della Camera dei rappresentanti degli Stati Uniti. Puoi discutere alcune di queste proposte?

L'AI Data Protection Act ha lo scopo di promuovere l'innovazione e progettato per (1) aumentare la trasparenza nella natura e nell'uso dell'intelligenza artificiale e per costruire la fiducia del pubblico nell'intelligenza artificiale; (2) affrontare l'impatto dell'intelligenza artificiale sul mercato del lavoro e (3) proteggere la salute e la sicurezza pubblica.

Presenta diverse componenti chiave. Ad esempio, vieta alle aziende interessate di affidarsi esclusivamente all'intelligenza artificiale per prendere determinate decisioni, tra cui una decisione relativa all'assunzione di individui o alla negazione o limitazione di cure mediche, e vieta agli emittenti di assicurazioni sanitarie di prendere decisioni in merito alla copertura di un trattamento medico basandosi esclusivamente sull'analisi dell'intelligenza artificiale. Istituisce inoltre l'Artificial Intelligence Board, una nuova agenzia federale incaricata di responsabilità specifiche per la regolamentazione dell'intelligenza artificiale in relazione alla salute e alla sicurezza pubblica. E richiede alle entità interessate di nominare un Chief Artificial Intelligence Officer.

 

Hai anche sviluppato la supervisione dell'IA e le migliori pratiche di governance aziendale progettate per garantire l'equità algoritmica. Quali sono alcuni dei problemi attuali che vedi con equità o pregiudizi nei sistemi di intelligenza artificiale? 

Questo argomento è stato al centro di un attento esame da parte del mondo accademico e ora sta suscitando l'interesse di agenzie governative statunitensi, come l'Equal Employment Opportunity Commission (EEOC) e l'ordine degli avvocati. Nella maggior parte dei casi, il nesso di causalità deriva da un difetto nei set di dati di training o dalla mancanza di comprensione e trasparenza nell'ambiente di testing. A ciò si aggiunge la mancanza di una titolarità e supervisione centralizzata dell'IA da parte dell'alta dirigenza.

Questa mancanza di comprensione tecnica e di consapevolezza della situazione è un problema significativo in termini di responsabilità. Ho parlato con diversi importanti avvocati di parte civile che sono a caccia di casi di pregiudizio per l'intelligenza artificiale.

 

Il deep learning spesso soffre del problema della scatola nera, per cui inseriamo dati in una rete neurale artificiale (ANN) e quindi riceviamo un output, senza alcun mezzo per sapere come è stato generato quell'output. Credi che questo sia un grosso problema?  

Io faccio. E poiché gli algoritmi e le reti neurali continuano a evolversi e gli esseri umani non sono sempre più "nel giro", c'è il rischio reale di superare il punto critico in cui non saremo più in grado di comprendere gli elementi critici della funzione e dell'output.

 

Con COVID-19 i paesi di tutto il mondo hanno introdotto Sistemi di sorveglianza statale alimentati dall'intelligenza artificiale. Quanto di un problema hai con potenziali abusi con questo tipo di sorveglianza?

È ingenuo e, francamente, irresponsabile dal punto di vista dei diritti e della libertà individuali, ignorare o minimizzare il rischio di abusi. Mentre il tracciamento dei contatti sembra prudente nel bel mezzo di una pandemia globale e il riconoscimento facciale basato sull'intelligenza artificiale fornisce una misura efficace per fare ciò che gli esseri umani da soli non sarebbero in grado di realizzare, la società deve istituire divieti legali sull'uso improprio insieme a efficaci meccanismi di controllo e applicazione. Altrimenti, stiamo cedendo allo stato un elemento centrale dei nostri diritti fondamentali individuali. Una volta distribuito all'ingrosso, questo elemento fondamentale della nostra libertà e privacy non verrà restituito.

 

In precedenza hai affermato che "Dobbiamo stabilire una" no-fly zone "AI se vogliamo preservare le libertà che tutti gli americani tengono e che servono come fondamento della nostra società". Potresti condividere alcune di queste preoccupazioni che hai?  

Quando si parla di intelligenza artificiale, dobbiamo sempre concentrarci sullo scopo essenziale dell'IA: produrre analisi predittive accurate da set di dati molto grandi che vengono poi utilizzati per classificare gli esseri umani e prendere decisioni. Successivamente, dobbiamo esaminare chi sono i responsabili delle decisioni, cosa stanno decidendo e su cosa basano le loro decisioni.

Se comprendiamo che i responsabili delle decisioni sono coloro che hanno il maggiore impatto sulla nostra salute, mezzi di sussistenza e libertà: datori di lavoro, proprietari terrieri, medici, assicuratori, forze dell'ordine e ogni altra impresa privata, commerciale e governativa che può generare, raccogliere o acquistare analisi dell'IA - diventa facile vedere che in una democrazia liberale occidentale, al contrario di un regime totalitario, dovrebbero esserci decisioni che non dovrebbero, e non devono, essere lasciate esclusivamente ad AI.

Sebbene vengano in mente molte decisioni ovvie, come proibire l'incarcerazione di qualcuno prima che un crimine venga commesso, l'adozione diffusa dell'IA in ogni aspetto della nostra vita presenta esempi molto più irritanti di enigmi etici. Ad esempio, se un algoritmo prevede accuratamente che i lavoratori che pubblicano sui social media foto di vacanze al mare in cui bevono alcolici si licenziano o vengono licenziati in media 3.5 anni prima rispetto a coloro che pubblicano foto di se stessi mentre si allenano, alla prima categoria dovrebbe essere negata una promozione o un aumento basandosi esclusivamente sull'output algoritmico? Se un algoritmo determina correttamente che gli adolescenti che giocano ai videogiochi in media più di 2 ore al giorno hanno meno probabilità di laurearsi in un'università quadriennale, a tali studenti dovrebbe essere negata l'ammissione? Se si determina che le donne asiatiche sulla sessantina ricoverate in terapia intensiva per sintomi correlati al COVID-60 hanno un tasso di sopravvivenza più elevato rispetto agli uomini afroamericani sulla settantina, le donne dovrebbero ricevere un trattamento medico preferenziale?

Questi esempi troppo semplificati sono solo alcune delle numerose decisioni in cui fare affidamento solo sull'intelligenza artificiale contraddice le nostre opinioni su ciò che richiedono i diritti umani individuali.

 

C'è qualcos'altro che vorresti condividere su AI o Baker McKenzie? 

Sono estremamente entusiasta di aiutare a guidare La vera pratica internazionale dell'intelligenza artificiale di Baker McKenzie nel paesaggio in evoluzione. Riconosciamo che i nostri clienti sono affamati di indicazioni su tutto ciò che riguarda l'intelligenza artificiale, dalla negoziazione dei contratti, alla creazione di una supervisione interna, all'evitare affermazioni di parzialità, alla comprensione del quadro normativo nazionale e internazionale emergente.

Le aziende vogliono fare la cosa giusta, ma sono pochissimi gli studi legali che hanno le competenze e la comprensione necessarie dell'intelligenza artificiale e dell'apprendimento automatico per poterle aiutare. Per quelli di noi che sono sia drogati di intelligenza artificiale che avvocati, questo è un momento entusiasmante per aggiungere valore reale ai nostri clienti.

Grazie per le fantastiche risposte riguardanti alcune di queste importanti preoccupazioni della società che coinvolgono l'IA. I lettori che desiderano saperne di più su Bradford Newman dovrebbero clicca qui..

Antoine è un leader visionario e socio fondatore di Unite.AI, spinto da una passione incrollabile per la definizione e la promozione del futuro dell'intelligenza artificiale e della robotica. Imprenditore seriale, ritiene che l'intelligenza artificiale sarà dirompente per la società quanto l'elettricità, e spesso viene colto a delirare sul potenziale delle tecnologie dirompenti e dell'AGI.

Come futurista, si dedica a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Titoli.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e rimodellando interi settori.