Entre em contato

As falhas do projeto de lei de inteligência artificial da UE

Regulamento

As falhas do projeto de lei de inteligência artificial da UE

mm

Uma nova crítica jurídica ao projecto de "Lei da IA" da União Europeia apresenta uma vasta gama de críticas aos regulamentos propostos lançado em abril, concluindo que grande parte do documento é "costurada" a partir de regulamentações de consumo pouco aplicáveis ​​da década de 1980; que, na verdade, ele promove um ambiente de IA desregulamentado na Europa, em vez de colocar o setor sob regulamentação coerente; e - entre uma série de outras críticas - que as propostas mapeiam uma futura estrutura regulatória de IA que tem "pouco sentido e impacto".

Intitulado Desmistificando o Projeto de Lei de Inteligência Artificial da UE, pré-impressão é uma colaboração entre pesquisadores da UCL London e da Radboud University em Nijmegen.

O documento contribui para um crescente corpo de opinião negativa sobre a implementação proposta (em vez da intenção muito admirada) de uma estrutura regulatória de IA, incluindo a contenção em Abril de um dos próprios colaboradores do projeto de regulamento que as diretrizes propostas são "mornas, míopes e deliberadamente vagas", o que caracterizou o documento da Comissão Europeia como um defensor de "ética falsa".

Sistemas manipulativos de IA

O novo artigo afirma que as restrições propostas pela Lei da IA ​​sobre "sistemas manipulativos" são prejudicadas por uma definição vaga e até contraditória de "dano", comentando que "[um] cínico pode achar que a Comissão está mais interessada no valor retórico das proibições do que no efeito prático".

O processo de projetos de regulamento descreva duas práticas supostamente proibidas:

(a) a colocação no mercado, colocação em serviço ou uso de um sistema de IA que implemente técnicas subliminares além da consciência de uma pessoa, a fim de distorcer materialmente o comportamento de uma pessoa de uma maneira que cause ou possa causar a essa pessoa ou a outra pessoa física ou danos psicológicos;

(b) a colocação no mercado, colocação em serviço ou utilização de um sistema de IA que explore qualquer uma das vulnerabilidades de um grupo específico de pessoas devido à sua idade, deficiência física ou mental, a fim de distorcer materialmente o comportamento de uma pessoa pertencer a esse grupo de maneira que cause ou possa causar a essa pessoa ou a outra pessoa danos físicos ou psicológicos;

Os pesquisadores argumentam que essas restrições não abordam se os serviços ou software de um provedor de IA são bem-sucedidos em promover seus próprios objetivos, mas apenas se o usuário final sofre "dano" no processo. Eles acrescentam que a definição de dano do projeto se limita fatalmente a usuários individuais, em vez do tipo de dano coletivo ou social que pode ser razoavelmente inferido de uma série de controvérsias baseadas em IA dos últimos anos, como o desastre da Cambridge Analytica.

O artigo observa que "Na vida real, o dano pode se acumular sem que um único evento ultrapasse o limite de seriedade, o que dificulta sua comprovação".

Sistemas prejudiciais de IA são permitidos, mas não para consumo na UE

A Lei de IA propõe implementar a proibição de sistemas biométricos "em tempo real" em espaços públicos pelas autoridades policiais. Embora haja algum ceticismo público em relação às exceções que as propostas fazem para o combate ao terrorismo, o tráfico de crianças e a busca por um mandado de prisão europeu, os pesquisadores observam também que nada impediria os fornecedores de vender sistemas biométricos infratores a regimes opressores.

O jornal observa que essa já é uma prática histórica, conforme revelado em relatório de 2020 da Anistia Internacional.

Ele afirma ainda que a especificação do sistema biométrico em "tempo real" da Lei de IA é arbitrária e exclui sistemas analíticos off-line, como o processamento posterior de imagens de vídeo de eventos de protesto.

Além disso, observa-se que as propostas não oferecem nenhum mecanismo para restringir os sistemas biométricos que são não relacionadas à aplicação da lei, que são preguiçosamente adiadas para o GDPR; e que o próprio GDPR 'impõe uma exigência de consentimento individual de alta qualidade para cada pessoa escaneada, o que é efetivamente impossível de cumprir'.

A redação desta seção da Lei de IA também é alvo de críticas por parte dos pesquisadores. O projeto estipula que será necessária uma pré-autorização para a implantação de sistemas biométricos para "uso individual" de tais sistemas pelas autoridades competentes – mas não esclarece o que "uso individual" significa neste contexto. O artigo observa que mandados controversos podem ser temático, e se relacionam com organizações amplas, propósitos e lugares.

Além disso, o projeto de regulamento não estipula um mecanismo de transparência para o número e tipo de autorizações emitidas, tornando o escrutínio público problemático.

Regulamentação de terceirização para 'padrões harmonizados'

A pesquisa afirma que as entidades mais importantes da AI Act não são mencionadas nem uma vez nos projetos de regulamentação: CEN (Comitê Europeu de Normalização) e CENELEC (Comitê Europeu de Normalização Eletrotécnica) - duas das três Organizações Européias de Normalização (ESOs) que a Comissão Europeia pode determinar a formulação de padrões harmonizados, que em muitos casos continuariam sendo as estruturas regulatórias que regem certos tipos de serviços e implantações de IA.

Isso significa efetivamente que os produtores de IA podem optar por seguir os padrões do que está de fato concorrendo em vez de regulamentos complementares, em vez de atender aos requisitos essenciais descritos na Lei de IA. Isso permite que os provedores interpretem de maneira mais livre os regulamentos propostos quando eles entrarem em vigor em 2024-5.

Os pesquisadores do artigo também opinam que anos de lobby industrial entre órgãos de normalização provavelmente redefinirão consideravelmente esses "padrões essenciais" e sugerem que regulamentações "ideais" devem começar em um nível ético mais alto e com maior clareza legislativa, mesmo que seja apenas para dar conta desse inevitável processo de atrito.

Legitimando a falácia dos sistemas de reconhecimento de emoções

A AI Act apresenta disposições contra a implantação de sistemas de reconhecimento e categorização de emoções – estruturas que podem não necessariamente identificar um indivíduo, mas afirmam entender o que estão sentindo ou serem capazes de categorizá-los em termos de gênero, etnia e vários outros significantes econômicos e sociais.

Os pesquisadores argumentam que essa cláusula é inútil, uma vez que o GDPR já obriga os fornecedores de tais sistemas a fornecer aos usuários informações claras sobre o uso de tais sistemas, para que os usuários possam optar por não usar (o que pode envolver não usar um serviço online ou não entrar em uma área onde tais sistemas são anunciados para existir).

Mais importante ainda, o documento afirma que esta cláusula legitima uma desmascarado tecnologia, e passa a caracterizar FACSsistemas de reconhecimento de emoções à luz da vergonhosa história da frenologia e outras abordagens quase xamânicas para a categorização social desde o início da era industrial.

'Aqueles que afirmam detectar emoções usam taxonomias questionáveis ​​e simplificadas demais; assumir incorretamente a universalidade entre culturas e contextos; e arriscar '[nos levar] de volta ao passado frenológico' de analisar traços de caráter de estruturas faciais. As disposições da Lei sobre reconhecimento de emoções e categorização biométrica parecem insuficientes para mitigar os riscos.'

Uma proposta modesta demais

Além destas, os investigadores abordam outras deficiências percebidas na Lei da IA ​​no que diz respeito à regulamentação dos deepfakes, à falta de supervisão das emissões de carbono dos sistemas de IA, à duplicação da supervisão regulamentar com outros quadros e à definição inadequada de entidades jurídicas processáveis.

Eles exortam os legisladores e ativistas civis a tomar medidas para corrigir os problemas identificados e, além disso, observam que até mesmo sua extensa desconstrução dos projetos de regulamentos teve que omitir muitas outras áreas de preocupação, devido à falta de espaço.

No entanto, o documento aplaude a tentativa de vanguarda da Lei de introduzir um sistema de regulamentação horizontal de sistemas de IA, citando seus muitos "elementos sensatos", como a criação de uma hierarquia de níveis de avaliação de risco, o compromisso de introduzir proibições e a proposta de um banco de dados público de sistemas para os quais os fornecedores precisariam contribuir para obter legitimidade europeia, embora observando os dilemas legais que essa exigência posterior provavelmente trará.

 

Escritor sobre machine learning, especialista em domínio em síntese de imagem humana. Ex-chefe de conteúdo de pesquisa na Metaphysic.ai.
Site pessoal: martinanderson.ai
Contato: [email protected]
Twitter: @manders_ai