Editor en La Ecuación Digital. Consultor de Innovación y Estrategia…
Hoy entra en vigor la Ley Europea de Inteligencia Artificial (Ley de IA), el primer Reglamento global sobre inteligencia artificial del mundo. La Ley de IA está diseñada para garantizar que la IA desarrollada y utilizada en la UE sea fiable, con salvaguardias para proteger los derechos fundamentales de las personas. El Reglamento tiene por objeto establecer un mercado interior armonizado para la IA en la UE, fomentando la adopción de esta tecnología y creando un entorno propicio para la innovación y la inversión.
La Ley de IA introduce una definición prospectiva de IA, basada en la seguridad de los productos y en un enfoque basado en el riesgo en la UE:
- Riesgo mínimo: La mayoría de los sistemas de IA, como los sistemas de recomendación basados en IA y los filtros de correo no deseado, entran en esta categoría. Estos sistemas no se enfrentan a obligaciones en virtud de la Ley de IA debido a su riesgo mínimo para los derechos y la seguridad de los ciudadanos. Las empresas pueden adoptar voluntariamente códigos de conducta adicionales.
- Riesgo específico de transparencia: Los sistemas de IA, como los chatbots, deben revelar claramente a los usuarios que están interactuando con una máquina. Determinados contenidos generados por IA, incluidas las ultrafalsificaciones, deben etiquetarse como tales, y los usuarios deben ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones. Además, los proveedores tendrán que diseñar sistemas de manera que los contenidos sintéticos de audio, vídeo, texto e imágenes estén marcados en un formato legible por máquina y detectables como generados o manipulados artificialmente.
- Riesgo alto: Los sistemas de IA considerados de alto riesgo estarán obligados a cumplir requisitos estrictos, incluidos los sistemas de reducción del riesgo, la alta calidad de los conjuntos de datos, el registro de la actividad, la documentación detallada, una información clara para el usuario, la supervisión humana y un alto nivel de solidez, precisión y ciberseguridad. Los espacios controlados de pruebas facilitarán la innovación responsable y el desarrollo de sistemas de IA conformes. Estos sistemas de IA de alto riesgo incluyen, por ejemplo, los sistemas de IA utilizados para la contratación o para evaluar si alguien tiene derecho a obtener un préstamo o a gestionar robots autónomos.
- Riesgo inaceptable: Se prohibirán los sistemas de IA que se consideren una clara amenaza para los derechos fundamentales de las personas. Esto incluye los sistemas o aplicaciones de IA que manipulan el comportamiento humano para eludir la libre voluntad de los usuarios, como los juguetes que utilizan asistencia vocal que fomentan el comportamiento peligroso de los menores, los sistemas que permiten la «puntuación social» por parte de gobiernos o empresas, y determinadas aplicaciones de la actuación policial predictiva. Además, se prohibirán algunos usos de sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar a las personas o la identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con limitadas excepciones).
Para complementar este sistema, la Ley de IA también introduce normas para los denominados modelos de IA de uso general, que son modelos de IA de gran capacidad diseñados para llevar a cabo una amplia variedad de tareas, como la generación de textos similares a los humanos. Los modelos de IA de uso general se utilizan cada vez más como componentes de aplicaciones de IA. La Ley de IA garantizará la transparencia a lo largo de la cadena de valor y abordará los posibles riesgos sistémicos de los modelos más capaces.
Aplicación y ejecución de las normas de IA
Los Estados miembros tienen de plazo hasta el 2 de agosto de 2025 para designar a las autoridades nacionales competentes, que supervisarán la aplicación de las normas aplicables a los sistemas de IA y llevarán a cabo actividades de vigilancia del mercado. La Oficina de IA de la Comisión será el principal organismo de aplicación de la Ley de IA a escala de la UE, así como la autoridad responsable de la aplicación de las normas relativas a los modelos de IA de uso general.
Tres órganos consultivos apoyarán la aplicación de las normas. El Comité Europeo de Inteligencia Artificial garantizará una aplicación uniforme de la Ley de IA en todos los Estados miembros de la UE y actuará como principal órgano de cooperación entre la Comisión y los Estados miembros. Un grupo científico de expertos independientes ofrecerá asesoramiento técnico y aportaciones sobre la aplicación de la normativa. En particular, este panel puede emitir alertas a la Oficina de IA sobre los riesgos asociados a los modelos de IA de uso general. La Oficina de IA también puede recibir orientación de un foro consultivo compuesto por un conjunto diverso de partes interesadas.
Se impondrá una multa a las empresas que no cumplan las normas. Las multas podrían ascender hasta el 7 % del volumen de negocios anual mundial por infracciones de aplicaciones prohibidas de IA, hasta el 3 % por incumplimiento de otras obligaciones y hasta el 1,5 % por el suministro de información incorrecta.
Etapas siguientes
La mayoría de las normas de la Ley de IA empezarán a aplicarse el 2 de agosto de 2026. Sin embargo, las prohibiciones de los sistemas de IA que se considere que presentan un riesgo inaceptable se aplicarán ya al cabo de seis meses, mientras que las normas para los denominados modelos de IA de uso general se aplicarán al cabo de 12 meses.
Para superar el período transitorio antes de su plena aplicación, la Comisión ha puesto en marcha el Pacto sobre la IA. Esta iniciativa invita a los desarrolladores de IA a adoptar voluntariamente las obligaciones clave de la Ley de IA antes de los plazos legales.
La Comisión también está elaborando directrices para definir y detallar cómo debe aplicarse la Ley de Inteligencia Artificial y facilitar instrumentos de corregulación como normas y códigos de prácticas. La Comisión abrió una convocatoria de manifestaciones de interés para participar en la elaboración del primer Código de buenas prácticas para la IA de uso general, así como una consulta multilateral que brindó a todas las partes interesadas la oportunidad de expresar su opinión sobre el primer Código de buenas prácticas en virtud de la Ley de IA.