Estás leyendo
4 claves para entender la Ley de Inteligencia Artificial de la UE

4 claves para entender la Ley de Inteligencia Artificial de la UE

  • En esta tribuna para La Ecuación Digital, Julio Campoy analiza la Ley de Inteligencia Artificial de la UE, destacando transparencia, supervisión humana y gestión de riesgos como claves regulatorias esenciales.
Inteligencia artificial generativa

En la última década, la ha dejado de ser una promesa tecnológica para convertirse en una realidad tangible. Desde las plataformas de streaming con sus recomendaciones hasta asistentes virtuales y atención al cliente, la IA está en todas partes. Sin embargo, su crecimiento y adopción masiva también ha planteado una serie de preocupaciones éticas, sociales y de seguridad, jugando un papel fundamental las regulaciones.

La reciente Ley de Inteligencia Artificial de la Unión Europea, aprobada en marzo de 2024, ha sido clave y abre un nuevo camino en torno a la creación de los marcos regulatorios de esta herramienta para mitigar riesgos y garantizar un uso responsable de la IA. Además de esta ley, también están surgiendo otras regulaciones importantes como la emitida a finales de 2023 por la Casa Blanca para regular el desarrollo de la IA. También en abril de 2024 EE.UU. anunció la colaboración con Reino Unido para probar la seguridad de los sistemas avanzados de IA.

Como vemos, este avance legislativo marca un antes y un después en la manera en que las empresas deben abordar la IA en sus actividades. Y no sólo para las organizaciones que operan dentro de la UE, sino que también esta ley europea se aplica a cualquier organización que tenga algún impacto dentro de la UE, por lo que el cumplimiento de esta normativa no es opcional. La Ley establece una serie de directrices y controles que buscan proteger a los usuarios de los riesgos que una IA mal gestionada puede generar.

En apoyamos la introducción de normas más estrictas para la privacidad de los datos y la protección de la propiedad intelectual y ofrecemos asesoramiento sobre la industria de la IA, especialmente en el contenido del dominio de las grandes tecnológicas en relación con la regulación de la IA y su uso liberal de los datos para entrenar modelos de IA. La Ley de IA de la UE no es un punto final, es un comienzo que indica que vendrán más cambios. Puede hablar sobre cómo está evolucionando la regulación de la IA y sobre otras medidas, como la IA privada de propiedad empresarial, que marcarán la pauta para el futuro de la IA segura.

El papel de la ley frente a los riesgos de la IA

La IA lleva muchos años utilizándose de diferentes maneras. Sin embargo, en los últimos años, su crecimiento exponencial, impulsado además por el auge de la IA generativa como ChatGPT, ha despertado una gran preocupación por sus posibles riesgos. Algunos de los más evidentes que encontramos son la creación de contenido falso o dañino, las llamadas «alucinaciones», respuestas erróneas o incorrectas generadas por la IA, y la falta de transparencia, lo que dificulta entender cómo y por qué la IA toma determinadas decisiones.

La nueva Ley de IA de la UE aborda directamente estos problemas. Entre sus principales objetivos están la necesidad de transparencia, así como la validación y supervisión humana en los sistemas de alto riesgo, los cuales pueden tener un impacto profundo en áreas como el empleo, la justicia, la biometría o las infraestructuras críticas.

La transparencia, validación y supervisión humana: claves para la ley

Como he comentado, la transparencia es fundamental dentro de la nueva ley. Los usuarios deben estar plenamente informados cuando están interactuando con IA, ya sea en una aplicación conversacional o en un sistema más complejo que afecte a su vida diaria, como una solicitud de préstamo o un proceso de contratación. Esto no solo protege a los consumidores, sino que también genera confianza en la tecnología, lo cual es esencial para su adopción a largo plazo.

Por otro lado, tanto la validación como supervisión humana son otros pilares clave de la regulación. La ley establece que las decisiones críticas no pueden ser tomadas de forma completamente autónoma por IA, sino que deben estar sujetas a revisión y validación humana, asegurando que los errores puedan ser evitados, lo que la ley pretende reducir. Los humanos deben estar al tanto de todo con un control adicional a los sistemas de IA. Si algo sale mal, están a tiempo de corregir los errores gracias a su criterio garantizando así decisiones adecuadas.

Esta combinación de IA y supervisión humana crea lo que denominamos «autonomía mixta», un concepto que ya hemos implementado con éxito en Appian para maximizar las fortalezas de ambos actores. Esto se debe a que la IA no tiene criterio humano. Puede proponer ideas, pero debe contar con supervisión humana, formando la IA parte de un equipo.

Categorías de riesgo y requisitos normativos

La Ley de IA clasifica los sistemas en cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo. Aquellos que presentan riesgos inaceptables, como la manipulación o puntuación social basada en datos personales, están prohibidos. Por otro lado, los sistemas de alto riesgo, que incluyen desde dispositivos médicos hasta sistemas de reclutamiento, deben cumplir estrictos requisitos de evaluación y validación.

En este contexto, las empresas deben estar preparadas para registrar sus sistemas, someterlos a auditorías de conformidad y garantizar que cumplen con los niveles exigidos de seguridad, precisión y supervisión humana. Un sistema de gestión de riesgos es imprescindible, así como una gobernanza de datos que asegure que los conjuntos de datos utilizados para entrenar a las IA son representativos y no contienen sesgos.

IA privada, segura y responsable

Appian lleva mucho tiempo presionando para que haya más control y regulación en torno a la IA. Con ese fin, hemos creado nuestros sistemas utilizando una filosofía de IA segura y privada que permite a las organizaciones aprovechar los beneficios de la IA sin dejar de cumplir con las normativas.

Las regulaciones de IA tienen como objetivo crear una IA segura y responsable. Por ello, es fundamental utilizar servicios que prioricen una filosofía de IA privada lo que se traduce en no compartir los datos con terceros, permaneciendo dentro de los límites del cumplimiento y seguridad. En Appian, incluso cuando utilizamos un modelo de terceros, toda la información permanece dentro de nuestros límites y bajo la seguridad de la plataforma.

Muchos de los principales servicios de IA públicos crean y refinan algoritmos de IA basados en datos de clientes. Esto ayuda a afinar los algoritmos y crear IA basadas en datos del mundo real, pero hay una desventaja obvia: no es posible saber cómo se utilizarán esos datos una vez incorporados a su modelo de IA. De esta manera, no se puede documentar a dónde van estos datos o si habrá sesgo o incluso más “alucinaciones”. En nuestra plataforma, es posible crear modelos propios que no se usarán para entrenar ningún otro modelo. Además, gracias a nuestra estrecha colaboración con Amazon Web Services (AWS) Bedrock, brindamos acceso a grandes modelos de lenguaje para proporcionar respuestas conversacionales. Esto significa que los datos permanecen siempre dentro del límite de cumplimiento y nunca se utilizan para modificar o entrenar otro LLM, ofreciendo mayor tranquilidad.

Por último, es importante que los datos permanezcan bajo control en todo momento. Una buena plataforma de automatización de procesos garantiza que los datos nunca salgan del límite de cumplimiento. Por ejemplo, la skill de creación de indicaciones de IA de Appian permite agregar una indicación de IA generativa a un proceso determinado y hacer que devuelva una respuesta específica con herramientas que permiten proteger la información. Este procesamiento se realiza siempre dentro de los límites de cumplimiento de seguridad de Appian por lo que los datos nunca están en el exterior y siempre permanecen bajo control.

En Appian hemos adoptado un enfoque empresarial de IA que prioriza la seguridad, la transparencia y la privacidad. Esto no solo nos permite cumplir con la normativa, sino que también genera confianza en nuestros clientes y usuarios. Al integrar IA en nuestros procesos mediante automatización y orquestación, logramos incorporar supervisión humana de manera eficiente y efectiva, minimizando riesgos.

 

 

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad