Estás leyendo
Ignasi Belda desvela las claves de la AESIA en el 38º Encuentro de AMETIC
Banner

Ignasi Belda desvela las claves de la AESIA en el 38º Encuentro de AMETIC

Ignasi Belda, director general de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA)

Durante el  38º Encuentro de la Economía Digital y las Telecomunicaciones , organizado por AMETIC en Santander, , director general de la Agencia Española de Supervisión de la (), realizó su primera intervención pública desde que asumió el cargo el pasado 14 de junio. En su discurso, Belda trazó las líneas estratégicas que definirán el funcionamiento de la AESIA, subrayando su papel en la implementación de una inteligencia artificial (IA) ética y responsable en España, en consonancia con la normativa europea.

La creación de la AESIA marca un hito en la regulación de la IA en España. La agencia se erige como un actor clave en un panorama en el que la inteligencia artificial gana cada vez más relevancia, no solo en el ámbito tecnológico, sino también en el económico y social. A lo largo de su intervención, Belda explicó los tres pilares fundamentales sobre los que se sustentará la labor de la AESIA: la supervisión del mercado, el sistema de certificación y el para la innovación. Estos elementos reflejan la alineación de la agencia con las directrices del , la normativa europea de inteligencia artificial.

El marco normativo europeo: el AI Act

Ignasi Belda, director general de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA)
Ignasi Belda, director general de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA)

Uno de los puntos centrales del discurso de Belda fue la aplicación del AI Act, el reglamento europeo de inteligencia artificial que entró en vigor en agosto de 2023. Este marco normativo establece las bases para la regulación de las aplicaciones de IA en Europa, con el objetivo de proteger a los ciudadanos y garantizar un uso seguro y responsable de esta tecnología.

El AI Act clasifica las aplicaciones de IA en tres niveles de riesgo, cada uno con diferentes exigencias regulatorias:

  • IA de riesgo inaceptable: aplicaciones cuyo uso está completamente vetado debido a su alto riesgo para los derechos y libertades de los ciudadanos.
  • IA de riesgo medio: aplicaciones que requieren una certificación previa para garantizar su seguridad y fiabilidad antes de su entrada en el mercado.
  • IA de bajo riesgo: aplicaciones de libre uso sin necesidad de certificación, aunque las empresas pueden optar por certificar sus soluciones de forma voluntaria, como un distintivo de calidad.

Este enfoque normativo, según explicó Belda, está inspirado en el Medical Device Regulation (MDR), el reglamento europeo que regula los dispositivos médicos. Este paralelismo demuestra cómo la Unión Europea ha adoptado un enfoque preventivo para garantizar que la IA se despliegue de forma controlada y segura, basándose en experiencias previas con otras tecnologías críticas. AESIA, bajo esta normativa, supervisará el cumplimiento de estas clasificaciones y asegurará que las aplicaciones de IA en el mercado español se ajusten a las exigencias del reglamento.

Los tres pilares estratégicos de la AESIA

Belda articuló la misión de la AESIA en tres pilares estratégicos que guiarán el trabajo de la agencia: la supervisión del mercado, la certificación de las aplicaciones de IA y el sandbox para fomentar la innovación.

Supervisión del mercado

La AESIA actuará como un ente regulador encargado de supervisar la aplicación de la IA en el mercado español. Su función será similar a la de otras agencias reguladoras como la CNMC en el ámbito de la competencia o el Banco de España en el sector bancario. El objetivo principal será garantizar que ninguna aplicación de IA que caiga dentro de las categorías prohibidas se utilice en España. Además, AESIA tendrá potestad sancionadora, pudiendo imponer multas de hasta 35 millones de euros o el 7% de la facturación mundial de las empresas que incumplan la normativa. Belda, sin embargo, expresó su deseo de que la agencia no tenga que recurrir a sanciones, destacando su preferencia por un enfoque educativo y preventivo.

Certificación de aplicaciones

El sistema de certificación será obligatorio para las aplicaciones de IA de riesgo medio, mientras que será opcional para las de bajo riesgo. Este proceso, inspirado en el sector sanitario, requerirá la creación de entidades certificadoras conocidas como «notified bodies», que serán responsables de evaluar la conformidad de las aplicaciones de IA con la normativa. Mientras el sector privado organiza estas entidades, AESIA creará un Centro Nacional de Certificación, que operará de manera independiente y transitoria hasta que las empresas puedan asumir esta responsabilidad.

Sandbox para la innovación

El tercer pilar de la estrategia de la AESIA es el sandbox, un entorno controlado en el que las empresas podrán probar nuevas aplicaciones de IA que presenten ciertos riesgos antes de su despliegue en el mercado. Este mecanismo, aprobado en España mediante el Real Decreto 817/2023, permitirá a las empresas innovar sin enfrentar de inmediato los estrictos requisitos regulatorios. El sandbox actuará como un banco de pruebas supervisado, similar a los ensayos clínicos en el sector sanitario, en los que se testean nuevas tecnologías médicas bajo condiciones controladas antes de su comercialización.

Impacto y retos de la AESIA

Ignasi Belda, director general de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA)
Ignasi Belda, director general de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA)

La creación de la AESIA, junto con la entrada en vigor del AI Act, constituye un hito crucial en la regulación de la IA en España y Europa. La agencia no solo se encargará de supervisar el cumplimiento normativo, sino que también desempeñará un papel importante en la protección de los derechos de los ciudadanos frente a los riesgos que puedan derivarse de la inteligencia artificial. Este enfoque proactivo responde a las crecientes preocupaciones sobre los posibles impactos de la IA en la privacidad, la seguridad y las libertades individuales.

Te puede interesar
Transformación del mercado laboral - Trabajos tecnológicos

Uno de los mayores desafíos que enfrentará la AESIA será la construcción de un ecosistema de certificación sólido y eficiente. Mientras que el sector privado tendrá un papel fundamental en este proceso, la agencia deberá asegurar que las entidades certificadoras cumplan con los requisitos establecidos por la normativa europea. La correcta implementación de este sistema será crucial para garantizar que las innovaciones en IA no entren en el mercado sin una evaluación exhaustiva de su seguridad y fiabilidad.

Otro desafío relevante será la implementación efectiva del sandbox. Este mecanismo tiene el potencial de acelerar la innovación en IA, permitiendo a las empresas experimentar con nuevas tecnologías en un entorno regulado pero flexible. Sin embargo, garantizar que este entorno controlado no comprometa la seguridad de los usuarios ni viole derechos fundamentales será clave para su éxito.

Horizontes para la regulación y el desarrollo tecnológico

La intervención de Ignasi Belda en el 38º Encuentro de AMETIC dejó claro que la AESIA será un pilar fundamental en la regulación y supervisión de la inteligencia artificial en España. Su misión, centrada en la protección de los ciudadanos y la promoción de una IA ética y responsable, cobra especial relevancia en un momento en que la inteligencia artificial se está convirtiendo en una tecnología omnipresente en múltiples sectores.

La AESIA, con su enfoque en la supervisión del mercado, la certificación de aplicaciones y el fomento de la innovación a través del sandbox, se posiciona como un actor clave en la transformación tecnológica de España. La colaboración entre el sector público y privado será esencial para asegurar que la inteligencia artificial en España se despliegue de manera segura, eficiente y en consonancia con los valores europeos de protección de derechos y seguridad.

El éxito de la AESIA dependerá, en última instancia, de su capacidad para crear un equilibrio entre el control regulador y el impulso a la innovación. Su papel como garante de una inteligencia artificial ética y transparente será crucial para consolidar un marco normativo que no solo responda a las demandas tecnológicas del futuro, sino que también proteja a los ciudadanos en este nuevo paradigma.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad