Interviste
Jon Potter, Partner at The RXN Group – Interview Series

Jon Potter è un Partner e guida la pratica di Intelligenza Artificiale a livello statale presso RXN Group. È un avvocato esperto, lobbista e comunicatore, ha fondato e guidato due associazioni di settore e un’organizzazione di consumatori, e ha consultato molte industrie e organizzazioni su sfide legislative, comunicazioni e advocacy. Jon ha fondato la Digital Media Association, Fan Freedom e l’Application Developers Alliance, è stato Executive Vice President della società di comunicazioni globali Burson-Marsteller e avvocato per diversi anni presso lo studio legale Weil, Gotshal, & Manges.
In qualità di cliente e consulente, Jon ha sovrinteso a campagne di advocacy federali, multistatali e internazionali e ha coinvolto lobbisti, società di comunicazioni e studi legali su tre continenti. Jon ha testimoniato in Congresso e nelle legislature statali diverse volte, ha parlato a decine di conferenze in tutto il paese e all’estero, e è stato intervistato in programmi di notizie radiofoniche e televisive nazionali e locali, tra cui CNN, Today Show e 60 Minutes.
Può fornire una panoramica delle principali tendenze nella legislazione sull’Intelligenza Artificiale a livello statale nel 2024?
Il 2024 è stato un anno straordinario per la legislazione sull’Intelligenza Artificiale a livello statale, segnato da diverse tendenze.
La prima tendenza è il volume. Sono stati introdotti 445 progetti di legge sull’Intelligenza Artificiale in 40 stati, e ci aspettiamo che questo trend continui nel 2025.
Una seconda tendenza è una dicotomia costante: i progetti di legge sull’uso dell’Intelligenza Artificiale da parte del governo sono stati in generale ottimisti, mentre i progetti di legge sull’Intelligenza Artificiale in generale e sull’uso dell’Intelligenza Artificiale da parte del settore privato sono stati scettici e timorosi. Inoltre, diversi stati hanno approvato progetti di legge che hanno creato “task force” sull’Intelligenza Artificiale, che ora si stanno riunendo.
Quali sono le principali preoccupazioni che spingono i legislatori statali a introdurre progetti di legge sull’Intelligenza Artificiale, e come queste preoccupazioni variano da stato a stato?
Molti legislatori vogliono che le agenzie governative migliorino con l’Intelligenza Artificiale – per fornire servizi migliori in modo più efficiente.
Tra gli scettici, i temi di preoccupazione includono “deepfake” fraudolenti e abusivi legati alle elezioni, alle arti creative e al bullismo; la discriminazione algoritmica; la paura di decisioni e processi decisionali influenzati dall’Intelligenza Artificiale; la privacy personale e l’uso dei dati personali; e la sostituzione dei lavoratori. Alcune preoccupazioni possono essere affrontate con legislazione molto specifica, come l’ELVIS Act del Tennessee e la proibizione dei “deepfake” politici in California. Altre preoccupazioni, come i rischi di discriminazione algoritmica e la sostituzione dei lavoratori, sono amorfe e quindi le proposte legislative sono ampie, non specifiche e di grande preoccupazione.
Alcuni legislatori ritengono che le sfide attuali dei social media e della privacy digitale potrebbero essere state mitigate da legislazione preventiva, quindi stanno cercando di approvare leggi per risolvere i problemi dell’Intelligenza Artificiale che temono si svilupperanno. Naturalmente, è molto difficile definire linee guida di conformità chiare prima che si verifichino problemi reali.
Come possono gli stati elaborare legislazione sull’Intelligenza Artificiale che incoraggi l’innovazione e allo stesso tempo affronti i potenziali rischi?
La legislazione può fare entrambe le cose quando regola casi d’uso specifici e rischi, ma non la tecnologia fondamentale polivalente. Un buon esempio di ciò sono le leggi federali che regolano l’uso dei dati sanitari, finanziari e di istruzione degli studenti, ma non regolano i computer, i server o il cloud computing. Non regolando strumenti polivalenti come la memorizzazione e l’elaborazione dei dati (inclusa l’Intelligenza Artificiale), le leggi affrontano rischi reali e definiscono regole di conformità chiare.
È importante che i legislatori ascoltino una vasta gamma di stakeholder prima di approvare nuove leggi. I titoli suggeriscono che l’Intelligenza Artificiale è dominata da grandi aziende che investono miliardi di dollari per costruire modelli di rischio straordinariamente potenti. Ma ci sono migliaia di piccole e locali aziende che utilizzano l’Intelligenza Artificiale per costruire soluzioni di riciclaggio, pregiudizio sul posto di lavoro, prestiti alle piccole imprese e sicurezza informatica. Le organizzazioni di assistenza legale e le organizzazioni nonprofit locali stanno utilizzando l’Intelligenza Artificiale per aiutare le comunità sottoservite. I legislatori devono essere sicuri che la legislazione scettica sull’Intelligenza Artificiale non chiuda l’attività di Intelligenza Artificiale a livello locale, pubblico e di beneficenza.
Da parte della sua esperienza, quali sono gli impatti più significativi che i recenti progetti di legge sull’Intelligenza Artificiale hanno avuto sulle aziende? Ci sono settori specifici che sono stati più colpiti di altri?
Non sappiamo ancora gli impatti dei recenti progetti di legge sull’Intelligenza Artificiale perché pochi progetti di legge recenti sono diventati legge e le nuove leggi non stanno ancora facendo la differenza. La legge più ampia, in Colorado, non entrerà in vigore fino al 2026 e la maggior parte degli stakeholder, compreso il Governatore e il promotore, prevede modifiche significative prima della data di entrata in vigore. L’ELVIS Act nel Tennessee e le leggi sui “deepfake” in California dovrebbero ridurre l’attività fraudolenta e criminale, e speriamo che non inibiranno la parodia o altri discorsi protetti.
Con così tanti stati che si impegnano a legiferare sull’Intelligenza Artificiale, come vede l’evoluzione della relazione tra le norme statali sull’Intelligenza Artificiale e l’azione federale potenziale?
Questo è un bersaglio mobile con molte variabili. Ci sono già diverse aree di legge in cui i governi federali e statali coesistono, e l’Intelligenza Artificiale è associata a molte di esse. Ad esempio, ci sono leggi federali e statali sulla discriminazione sul posto di lavoro e sui servizi finanziari che sono efficaci indipendentemente dal fatto che l’Intelligenza Artificiale sia utilizzata da presunti cattivi attori. Una domanda per i legislatori è perché sono necessarie nuove leggi o regolamenti solo perché l’Intelligenza Artificiale è utilizzata in un’attività.
Quali sono le trappole comuni o le sfide che i legislatori statali affrontano quando elaborano progetti di legge sull’Intelligenza Artificiale? Come possono essere evitate?
Si tratta di istruzione – prendere il tempo per consultare molti stakeholder e capire come funziona l’Intelligenza Artificiale nel mondo reale. La legislazione basata sulla paura dell’ignoto non sarà mai equilibrata e inibirà sempre l’innovazione e l’Intelligenza Artificiale per il bene. Altri paesi colmeranno il vuoto di innovazione se gli Stati Uniti cedono la nostra leadership a causa della paura.
Può condividere esempi di advocacy di successo che hanno influenzato la legislazione sull’Intelligenza Artificiale a favore dell’innovazione?
In Colorado, il Rocky Mountain AI Interest Group e l’AI Salon hanno mobilitato sviluppatori e startup per impegnarsi con i legislatori per la prima volta. Senza lobbisti o consulenti interni, questi gruppi hanno attinto a una fonte di founder intelligenti, infelici e motivati che hanno espresso il loro disappunto in testimonianze e nei media – e sono stati ascoltati.
Allo stesso modo in California, i founder di piccole aziende che utilizzano l’Intelligenza Artificiale hanno testimoniato con passione nel legislatore e hanno stabilito contatti con i media per esprimere preoccupazione e disappunto per legislazione ben intenzionata ma terribilmente ampia. Come i loro omologhi in Colorado, questi founder erano non tradizionali, altamente motivati e molto efficaci.
Come identifica e coinvolge gli stakeholder in modo efficace nelle battaglie di politica sull’Intelligenza Artificiale a livello statale?
In parte parlando con persone come te, e diffondendo la parola che la legislazione è stata o sarà presto introdotta e potrebbe impattare sulla propria attività, azienda o opportunità. I legislatori sanno solo ciò che sanno, e ciò che apprendono parlando con lobbisti e aziende di cui sono a conoscenza. È importante partecipare al processo quando i progetti di legge vengono elaborati e modificati, perché se non sei al tavolo, allora probabilmente sei nel menu. Ogni azienda e organizzazione che costruisce o utilizza l’Intelligenza Artificiale dovrebbe partecipare prima che le leggi e le regolamentazioni vengano scritte, perché dopo che vengono scritte è spesso troppo tardi.
Quali sono i modi più efficaci per comunicare le complessità dell’Intelligenza Artificiale ai legislatori statali?
L’advocacy esiste in molte forme. Che si tratti di incontri con i legislatori di persona o in video, inviare una lettera o un’e-mail, o parlare con i media – ognuna di queste è un modo per far sentire la propria voce. Ciò che è più importante è la chiarezza e la semplicità, e raccontare la propria storia, che è ciò che si conosce meglio. Diverse legislature statali hanno regole, processi e norme diverse, ma la maggior parte dei legislatori è ansiosa di imparare e vuole ascoltare i propri elettori.
Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare RXN Group.












