Editor en La Ecuación Digital. Consultor de Innovación y Estrategia…
El Consejo ha aprobado hoy una ley pionera destinada a armonizar las normas sobre inteligencia artificial, la llamada Ley de Inteligencia Artificial .
Esta legislación emblemática sigue un planteamiento basado en el riesgo, lo que significa que cuanto mayor sea el riesgo de causar daños a la sociedad, más estrictas serán las normas. Es la primera de este tipo en el mundo y puede establecer una norma mundial para la regulación de la IA.
La nueva ley pretende fomentar el desarrollo y la adopción de sistemas de IA seguros y fiables en todo el mercado único de la UE, tanto por parte del sector público como del privado. Al mismo tiempo, pretende garantizar el respeto de los derechos fundamentales de los ciudadanos de la UE y estimular la inversión y la innovación en inteligencia artificial en Europa.
La Ley de Inteligencia Artificial se aplica únicamente a los ámbitos regulados por la legislación de la UE y prevé excepciones, como los sistemas utilizados exclusivamente con fines militares y de defensa, así como con fines de investigación.
Clasificación de los sistemas de IA como de alto riesgo y prácticas de IA prohibidas
La nueva ley clasifica los distintos tipos de inteligencia artificial en función de su riesgo. Los sistemas de IA que sólo presenten un riesgo limitado estarían sujetos a obligaciones de transparencia muy leves, mientras que los sistemas de IA de alto riesgo estarían autorizados, pero sujetos a una serie de requisitos y obligaciones para acceder al mercado de la UE.
Los sistemas de IA como, por ejemplo, la manipulación cognitiva del comportamiento y la puntuación social estarán prohibidos en la UE porque su riesgo se considera inaceptable. La ley también prohíbe el uso de IA para la vigilancia policial predictiva basada en la elaboración de perfiles y los sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, religión u orientación sexual.
Modelos de IA de uso general
La Ley de IA también aborda el uso de modelos de IA de propósito general (GPAI).
Los modelos GPAI que no planteen riesgos sistémicos estarán sujetos a algunos requisitos limitados, por ejemplo en materia de transparencia, pero los que presenten riesgos sistémicos tendrán que cumplir normas más estrictas.
Una nueva arquitectura de gobernanza
Para garantizar una aplicación adecuada, se crean varios órganos de gobierno:
- Una Oficina de Inteligencia Artificial dentro de la Comisión para hacer cumplir las normas comunes en toda la UE.
- Un grupo científico de expertos independientes para apoyar las actividades de aplicación.
- Un Consejo de AI con representantes de los Estados miembros para asesorar y asistir a la Comisión y a los Estados miembros en la aplicación coherente y eficaz de la Ley de AI.
- Un foro consultivo para que las partes interesadas aporten sus conocimientos técnicos al Consejo de AI y a la Comisión.
Sanciones
Las multas por infracciones a la Ley de AI se fijan como un porcentaje de la facturación anual global de la empresa infractora en el ejercicio financiero anterior o una cantidad predeterminada, la que sea mayor. Las PYME y las empresas de nueva creación están sujetas a multas administrativas proporcionales.
Transparencia y protección de los derechos fundamentales
Antes de que algunas entidades que prestan servicios públicos desplieguen un sistema de IA de alto riesgo, habrá que evaluar el impacto sobre los derechos fundamentales. El Reglamento también prevé una mayor transparencia en relación con el desarrollo y el uso de sistemas de IA de alto riesgo.
Los sistemas de IA de alto riesgo, así como determinados usuarios de un sistema de IA de alto riesgo que sean entidades públicas, tendrán que registrarse en la base de datos de la UE para sistemas de IA de alto riesgo, y los usuarios de un sistema de reconocimiento de emociones tendrán que informar a las personas físicas cuando estén expuestas a un sistema de este tipo.
Medidas de apoyo a la innovación
La ley sobre IA establece un marco jurídico favorable a la innovación y pretende fomentar el aprendizaje normativo basado en pruebas. La nueva ley prevé que los «sandboxes» reguladores de la IA, que permiten un entorno controlado para el desarrollo, prueba y validación de sistemas innovadores de IA, permitan también probar sistemas innovadores de IA en condiciones del mundo real.
Próximos pasos
Tras ser firmado por los Presidentes del Parlamento Europeo y del Consejo, el acto legislativo se publicará en el Diario Oficial de la UE en los próximos días y entrará en vigor veinte días después de esta publicación. El nuevo reglamento será aplicable dos años después de su entrada en vigor, con algunas excepciones para disposiciones específicas.