Regulación
La UE lanzará las primeras regulaciones de IA

El 21 de abril, la Unión Europea anunciará su primer marco regulatorio que rige el uso de la inteligencia artificial. La nueva normativa prohibirá por completo los sistemas de aprendizaje automático de alto riesgo e introducirá estándares mínimos para otras tecnologías de aprendizaje automático, imponiendo sanciones de 20 millones de euros (el 4 % de la facturación de la empresa) en caso de incumplimiento.
Un proyecto de informe de la nueva ley, obtenido Según Politico, buscaría fomentar la innovación y el desarrollo de sistemas de IA para el beneficio general de la economía y la sociedad de la UE, en áreas como la manufactura, la mejora de la eficiencia energética y el modelado del cambio climático; pero prohibiría el uso del aprendizaje automático en sistemas de calificación crediticia, la evaluación automatizada de sentencias penales y la evaluación de la idoneidad para los beneficios de seguridad social y las solicitudes de asilo o visa, entre otras prohibiciones que se revelarán más adelante.
El proyecto establece explícitamente que Estilo chino Los sistemas de puntuación social para individuos y empresas se oponen a los valores de la Unión Europea y serán prohibidos por el reglamento, junto con las tecnologías de «vigilancia masiva» impulsadas por IA.
Supervisión regulatoria
Posterior a su cita de un grupo de expertos de alto nivel sobre inteligencia artificial en marzo de 2021, la UE también tiene la intención de instituir una nueva Junta Europea de Inteligencia Artificial, con cada estado miembro representado, junto con un representante de la Comisión Europea y la autoridad de protección de datos de la UE.
Tal vez el edicto más amplio y potencialmente más controvertido del borrador es que prohíbe los sistemas que causan daño a las poblaciones de la UE "manipulando su comportamiento, opiniones o decisiones", lo que posiblemente incluiría muchas tecnologías que impulsan el análisis del marketing comercial y político.
La normativa hará excepciones para la lucha contra la delincuencia grave, permitiendo despliegues prescritos de sistemas de reconocimiento facial, dentro de límites de alcance y duración de uso.
Al igual que con la amplio barrido En virtud del RGPD, parece que estas nuevas regulaciones pueden ser lo suficientemente generales como para generar un "efecto paralizador" en áreas donde no se ofrecen pautas estrictas para el uso de IA, y las corporaciones corren el riesgo de quedar expuestas cuando su uso del aprendizaje automático cae en una posible área gris dentro de las regulaciones.
Sesgo bajo las nuevas regulaciones de IA de la UE
Sin embargo, el mayor desafío y posible atolladero jurídico se presenta en la forma de la estipulación del proyecto de reglamento de que los conjuntos de datos no "incorporen ningún sesgo intencional o no intencional" que pueda facilitar la discriminación.
Sesgo de datos es uno de los aspectos más desafiantes en el desarrollo de sistemas de aprendizaje automático: difícil de probar, difícil de abordar y profundamente relacionado con las culturas centrales de los organismos de recopilación de datos. El problema está colocando cada vez más a los organismos de investigación privados y estatales en una corriente cruzada entre la necesidad de representar con precisión a grupos distintos (prácticamente el objetivo fundamental de las matemáticas computacionales y el análisis estadístico empírico) y el potencial de promulgar perfiles raciales y demonización cultural, entre otras consideraciones. .
Por lo tanto, es probable que los mercados no pertenecientes a la UE esperen que la nueva regulación proporcione al menos algunas áreas específicas de orientación y una variedad de definiciones aplicables a este respecto.
Resistencia externa a la regulación AI de la UE
Es probable que la nueva regulación tenga un profundo impacto en las ramificaciones legales del uso del aprendizaje automático para analizar datos públicos, así como en los datos que aún será posible extraer de los usuarios web en la era posterior al seguimiento que actualmente está iniciando Verde, Firefox y (a un menor grado), Chrome.
Podría ser necesario definir claramente la jurisdicción, por ejemplo, en casos en los que los gigantes de las FAANG recopilan datos de usuarios de conformidad con el RGPD, pero los procesan mediante sistemas de aprendizaje automático fuera de la Unión Europea. No está claro si los algoritmos derivados de dichos sistemas podrían aplicarse a plataformas dentro de la UE, y aún menos cómo podría demostrarse dicha aplicación.
En el caso del uso de IA para informar las decisiones de privación de libertad y las sentencias, un tendencia creciente En los Estados Unidos, el propio Reino Unido ocasionalmente experimentos en este sector habría estado cubierto por la nueva normativa si el país no hubiera salido de la Unión Europea.
En 2020, un borrador de memorando de la Casa Blanca sobre la regulación de la IA expuso los argumentos estadounidenses a favor de una baja regulación de la IA, declarando que 'Las agencias federales deben evitar acciones regulatorias o no regulatorias que obstaculicen innecesariamente la innovación y el crecimiento de la IA'. Podría decirse que es probable que esta actitud sobreviva a la administración Trump bajo la cual se publicó el memorando, pero más bien refleja la abrasión que se avecina entre EE. UU. y la UE a raíz de la nueva regulación.
De manera similar, el Consejo de IA del Reino Unido 'Hoja de ruta de la IA' expresa un gran entusiasmo por los beneficios económicos de la adopción de la IA, pero una preocupación general de que no se permita que las nuevas regulaciones obstaculicen este progreso.
La primera ley real para la IA
El compromiso de la UE con una postura jurídica sobre la IA es innovador. Los últimos diez años se han caracterizado por una tormenta de nieve de libros blancos y hallazgos preliminares del comité y recomendaciones de gobiernos de todo el mundo, concentrándose en la ética de la IA, con pocas leyes aprobadas.

Distribución geográfica de emisores de pautas éticas de IA por número de documentos publicados, en una encuesta de 2019. El mayor número de pautas éticas se publica en los Estados Unidos y dentro de la Unión Europea, seguido por el Reino Unido y Japón. Canadá, Islandia, Noruega, Emiratos Árabes Unidos, India, Singapur, Corea del Sur, Australia están representados con 1 documento cada uno. Habiendo contribuido a una declaración específica del G7, los estados miembros de los países del G7 se destacan por separado. Fuente: https://arxiv.org/ftp/arxiv/papers/1906/1906.11668.pdf