La irrupción de la Inteligencia Artificial Generativa durante 2023 está empezando a transformar diferentes ámbitos de la vida y el entorno laboral. Sin embargo, a pesar de sus beneficios, se ha planteado la preocupación por las consecuencias de desarrollar plenamente sus capacidades.
Por ese motivo, la Unión Europea aprobó el pasado 8 de diciembre la primera ley de Inteligencia Artificial de la historia, convirtiéndose en la primera región del mundo que regule esta tecnología de manera integral. Con esta ley se pretende garantizar que los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad ambiental estén protegidos contra la Inteligencia Artificial de alto riesgo al mismo tiempo que impulsa la innovación.
La normativa, que se aplicará de la misma forma en todos los estados miembros, clasifica la IA en cuatro niveles y permite o prohíbe su uso en función del riesgo que genera para las personas, además de identificar sistemas de alta amenaza que solo se podrán utilizar al demostrarse que respetan los derechos fundamentales.
Los países y la Eurocámara ratificarán la ley en febrero de 2024 y su entrada entrará en vigor en 2026 con sanciones desde 35 millones de euros o el 7% del volumen de negocios global hasta 7,5 millones o el 1,5% del volumen de negocios para aquellas empresas que incumplan la normativa, en función de la infracción y el tamaño de la empresa.
Por ese motivo, Entelgy, The BusinessTech Consultancy, señala las claves que las empresas deben tener en cuenta ante la nueva regulación europea sobre Inteligencia Artificial.
La nueva normativa en materia de Inteligencia Artificial afecta a aquellas empresas que utilicen la IA en áreas que tengan que ver con las personas, como la medicina, el reclutamiento o la optimización en la toma de decisiones. Las empresas desarrolladoras de IA, como parte de un ejercicio de transparencia, deberán revelar cómo funciona el algoritmo, cómo ha sido entrenado y desarrollado, así como el contenido que genera.
Para ello, se proporcionarán plantillas con los datos técnicos que deban facilitar y se creará un registró de la IA a escala europea, una base de datos pública donde las aplicaciones de alto riesgo tendrán que publicar toda la información. En el caso de que estos datos aportados por las empresas no sean claros, los reguladores tendrán la posibilidad de investigar los algoritmos y solicitar más información. Finalmente, en el caso de que se encuentren infracciones, el sistema de IA podría cerrarse, retirarse del mercado, solicitar cambios, además de conllevar multas significativas.
Pese a que la regulación no obliga a las empresas a designar una supervisión humana encargada de revisar los resultados de la Inteligencia Artificial, se recomienda que exista una visión humana que valide el trabajo final de la IA, de forma que el algoritmo no sea el factor decisivo.
En cuanto a los productores de LLM (modelos de lenguaje de gran tamaño), estos deberán introducir de forma proactiva en el diseño y el desarrollo sistemas de seguridad para que el contenido final de la máquina no sea perjudicial y contrario a la ley. Además, en materia de propiedad intelectual, los desarrolladores tendrán la obligación de ser transparentes sobre el material protegido por derechos de autor que utilizan.
La Inteligencia Artificial va a ser la gran protagonista de la transformación digital de muchas empresas en los próximos años. Ahora con su regulación se pretende garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos, ya que como afirma Chat GPT “aunque el impacto inicial puede implicar desafíos y ajustes, el diálogo continuo entre los reguladores y los actores de la industria generarán efectos positivos, dando forma a una industria de la IA más responsable y ética”.