Estás leyendo
Microsoft se prepara para cumplir con la Ley de IA de la UE

Microsoft se prepara para cumplir con la Ley de IA de la UE

  • Microsoft adapta sus políticas, productos y herramientas para alinearse con la Ley de IA de la UE, ofreciendo apoyo a sus clientes y colaborando en el desarrollo de normativas efectivas.
Ley de Inteligencia Artificial Unión Europea

A medida que la Ley de Inteligencia Artificial (IA) de la Unión Europea (UE) se aproxima a la implementación de sus medidas clave en 2025, está adoptando medidas para cumplir con los nuevos requisitos normativos establecidos. Entre estas acciones, se incluyen la actualización de políticas internas y la adaptación de sus herramientas y servicios con el objetivo de facilitar el cumplimiento tanto para la propia empresa como para sus clientes. La compañía también desarrolla estrategias para fomentar un uso alineado con las disposiciones regulatorias, priorizando la transparencia y la gestión de riesgos en sus sistemas de IA.

La Ley de IA de la UE: un marco legal pionero

La de la UE es la primera legislación integral a nivel mundial que regula el desarrollo y uso de sistemas de . Su objetivo principal es mitigar riesgos asociados a usos de alto impacto de la IA y establecer responsabilidades claras a lo largo de la cadena de suministro de esta tecnología. Entre las disposiciones más relevantes destacan la clasificación de sistemas de alto riesgo, la prohibición de ciertas prácticas —como la puntuación social o la manipulación psicológica— y la obligación de transparencia en los sistemas generativos de IA.

Para las empresas tecnológicas que operan en Europa, la normativa introduce nuevos desafíos relacionados con la , la transparencia y la gestión de riesgos. A medida que se aproximan los plazos para su implementación, se están definiendo detalles clave mediante regulaciones secundarias y estándares técnicos desarrollados por organismos europeos.

Estrategias de Microsoft para el cumplimiento normativo

1. Enfoque integral en la gestión de riesgos

Microsoft ha diseñado un sistema de gobernanza de IA que abarca todo el ciclo de vida de desarrollo de sus sistemas, identificando y mitigando riesgos asociados con usos de alto impacto. Este enfoque incluye:

  • Evaluaciones de impacto para identificar posibles riesgos antes de que los productos sean lanzados al mercado.
  • Equipos de red-teaming, encargados de realizar pruebas para simular escenarios adversos y detectar vulnerabilidades.
  • Herramientas de supervisión y respuesta, como AI Content Safety, para monitorear el comportamiento de los sistemas y mitigar posibles daños.

2. Actualización de políticas internas y contratos

Microsoft ha revisado sus políticas corporativas para alinearlas con las disposiciones de la Ley de IA. Entre las medidas implementadas destacan:

  • La creación de restricciones internas que prohíben el desarrollo o comercialización de sistemas destinados a prácticas prohibidas, como la puntuación social.
  • La actualización de contratos con cláusulas específicas que prohíben a los clientes utilizar tecnologías de IA para fines que puedan violar la normativa europea.
  • La incorporación de un código de conducta específico para sistemas de IA generativa, estableciendo límites claros sobre el uso permitido de estas herramientas.

3. Herramientas para facilitar el cumplimiento de clientes

Reconociendo la distribución de responsabilidades en la cadena de suministro de IA, Microsoft ofrece herramientas y recursos diseñados para que sus clientes puedan desarrollar y desplegar sistemas que cumplan con la Ley de IA. Estas herramientas incluyen:

  • Microsoft Purview Compliance Manager, que permite evaluar la capacidad de cumplimiento regulatorio en diferentes marcos legales.
  • Azure AI Foundry, una plataforma para evaluar la idoneidad de aplicaciones de IA generativa.
  • PyRIT (Python Risk Identification Tool), una herramienta de código abierto utilizada para identificar riesgos en sistemas complejos de IA.

Transparencia y documentación

La Ley de IA introduce requisitos estrictos de documentación para sistemas de alto riesgo, incluyendo la necesidad de proporcionar información detallada sobre su funcionamiento, limitaciones y posibles impactos. Desde 2019, Microsoft ha publicado numerosas notas de transparencia que describen las características y restricciones de sus herramientas de IA, como Azure OpenAI Service y Copilot. Estas notas, junto con documentación técnica y recursos de preguntas frecuentes, buscan facilitar a los clientes la comprensión de las tecnologías y apoyar su uso conforme a la normativa.

Además, Microsoft colabora con organismos europeos de normalización, como CEN y CENELEC, en el desarrollo de estándares técnicos para cumplir con las exigencias de la Ley de IA en sistemas de alto riesgo.

Te puede interesar
Foro Económico Mundial 2025

Participación en la elaboración de prácticas regulatorias

Uno de los aspectos más complejos de la Ley de IA es la elaboración de regulaciones secundarias que definirán cómo se implementarán sus disposiciones. Microsoft participa activamente en estas discusiones, colaborando con la Oficina de IA de la Comisión Europea y otras autoridades nacionales para compartir su experiencia y abogar por soluciones prácticas. Entre los temas en discusión destaca la delimitación de responsabilidades entre proveedores de modelos de propósito general y empresas que los ajusten para fines específicos.

Microsoft también contribuye al desarrollo de códigos de buenas prácticas para proveedores de modelos de propósito general, participando en iniciativas internacionales como el Marco de Información del Proceso de Hiroshima, liderado por la OCDE.

Retos y perspectivas futuras

El éxito de la Ley de IA dependerá en gran medida de la claridad y eficiencia de sus normas de implementación. A medida que se aproximan los plazos clave, como la entrada en vigor de las disposiciones sobre prácticas prohibidas en febrero de 2025, persisten desafíos relacionados con la interoperabilidad de los requisitos europeos con otras normativas internacionales y la adaptación de las empresas a un entorno regulatorio más complejo.

Microsoft ha señalado que seguirá invirtiendo en herramientas, gobernanza y recursos para apoyar el cumplimiento de sus clientes y fomentar un ecosistema de IA confiable y seguro. No obstante, subraya la necesidad de un diálogo continuo entre reguladores, empresas y actores de la industria para garantizar que las normativas reflejen tanto las oportunidades como los riesgos asociados con la IA.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad