Regulación
El CEO de Google pide una mayor regulación para evitar las “consecuencias negativas de la IA”

El año pasado vio una cantidad creciente de atención hacia la regulación de la industria de la IA, y este año parece continuar la tendencia. Recientemente, Sundar Pichai, el CEO de Google y Alphabet Inc., apoyó la regulación de la IA en un think tank económico que tuvo lugar en Brugel.
Los comentarios de Pichai probablemente se hicieron en anticipación de los nuevos planes de la UE para regular la IA, que se revelarán en unas semanas. Es posible que las regulaciones de la UE contengan políticas que obliguen legalmente a ciertos estándares para la IA utilizada en el transporte, la atención médica y otros sectores de alto riesgo. Las nuevas regulaciones de la UE también pueden requerir una mayor transparencia con respecto a los sistemas y plataformas de IA.
Según Bloomberg, Google había intentado previamente desafiar las multas antimonopolio y la aplicación de derechos de autor en la UE. A pesar de los intentos anteriores de oponerse a ciertos marcos regulatorios en Europa, Pichai declaró que la regulación es bienvenida siempre y cuando se adopte “un enfoque proporcionado, equilibrando los daños potenciales con las oportunidades sociales”.
Pichai escribió recientemente un artículo de opinión en Financial Times, donde reconoció que, junto con muchas oportunidades para mejorar la sociedad, la IA también tiene el potencial de ser mal utilizada. Pichai declaró que las regulaciones deberían ayudar a evitar las “consecuencias negativas de la IA”, citando el uso abusivo del reconocimiento facial y los deepfakes como aplicaciones negativas de la IA. Pichai declaró que la alineación internacional es necesaria para que los principios regulatorios funcionen, y que, por lo tanto, es necesario llegar a un acuerdo sobre los valores fundamentales. Más allá de eso, Pichai dijo que es responsabilidad de las empresas de IA como Google considerar cómo la IA puede ser utilizada de manera ética y que esta es la razón por la que Google adoptó sus propios estándares para el uso ético de la IA en 2018.
Pichai declaró que los órganos regulatorios gubernamentales y las políticas desempeñarán un papel importante en garantizar que la IA se utilice de manera ética, pero que estos órganos no necesitan empezar desde cero. Pichai sugirió que las entidades regulatorias pueden buscar inspiración en regulaciones establecidas previamente, como la Regulación General de Protección de Datos de Europa. Pichai también escribió que la regulación ética de la IA puede ser a la vez amplia y flexible, con la regulación que proporciona orientación general que puede adaptarse a implementaciones específicas en sectores específicos de la IA. Nuevas tecnologías como los vehículos autónomos requerirán nuevas reglas y políticas que pesen los beneficios y los costos entre sí, mientras que para terrenos más transitados como los dispositivos médicos, los marcos existentes pueden ser un buen punto de partida.
Finalmente, Pichai declaró que Google quiere asociarse con los reguladores para desarrollar políticas y encontrar soluciones que equilibren las compensaciones, Pichai escribió en Financial Times:
“Queremos ser un socio útil y comprometido con los reguladores mientras luchan con las inevitables tensiones y compensaciones. Ofrecemos nuestra experiencia, experiencia y herramientas mientras navegamos estos temas juntos”.
Mientras que algunos han aplaudido a Google por tomar una postura sobre la necesidad de regulación para garantizar el uso ético de la IA, el debate continúa sobre el alcance en el que es apropiado que las empresas de IA estén involucradas en la creación de marcos regulatorios.
En cuanto a las regulaciones de la UE que se avecinan, es posible que la UE esté persiguiendo un sistema de reglas basado en riesgos, que impondría restricciones más estrictas a las aplicaciones de alto riesgo de la IA. Esto incluye restricciones que podrían ser mucho más estrictas de lo que Google espera, incluyendo una posible prohibición de varios años de la tecnología de reconocimiento facial (con excepciones para la investigación y la seguridad). En contraste con los enfoques más restrictivos de la UE, EE. UU. ha presionado para regulaciones relativamente ligeras. Todavía queda por ver cómo las diferentes estrategias regulatorias afectarán el desarrollo de la IA y la sociedad en general, en las dos regiones del globo.












