
Editor en La Ecuación Digital. Consultor de Innovación y Estrategia…
La inteligencia artificial (IA) ha emergido como una de las tecnologías más transformadoras de nuestro tiempo, con un impacto transversal en sectores como la economía, la seguridad, la ciencia y la comunicación. Sin embargo, su desarrollo acelerado plantea desafíos sin precedentes en términos de regulación, ética y seguridad. La necesidad de coordinar un enfoque global ha llevado a la celebración de la Cumbre de Acción sobre la IA , que tuvo lugar en París el 10 y 11 de febrero de 2025.
Co-presidida por el presidente de Francia, Emmanuel Macron, y el primer ministro de India, Narendra Modi, la cumbre reunió a más de 100 países, organismos internacionales, líderes empresariales, científicos y representantes del sector académico para definir estrategias que garanticen el desarrollo responsable de la IA.
A lo largo del evento se abordaron temas clave como la seguridad de los modelos avanzados de IA, la regulación global, la ciberseguridad, la lucha contra la desinformación y la sostenibilidad tecnológica. Además, se anunciaron importantes inversiones públicas y privadas que buscan reforzar la infraestructura y fomentar la innovación en el ámbito de la IA.
El desafío de la seguridad en IA: Un consenso internacional
El crecimiento exponencial de la IA ha generado preocupaciones sobre su posible mal uso en ciberataques, manipulación de la información y concentración de poder en unas pocas empresas tecnológicas. En este contexto, la Cumbre de Acción sobre la IA dio continuidad a los debates iniciados en la Cumbre de Bletchley Park (Reino Unido, noviembre de 2023) y la Cumbre de Seúl (Corea del Sur, mayo de 2024), reafirmando el compromiso internacional con una IA segura y confiable.
Uno de los hitos más importantes del evento fue la presentación del Informe Internacional sobre la Seguridad de la IA 2025, dirigido por el científico Yoshua Bengio y respaldado por un equipo de expertos internacionales. Este documento ofrece un análisis detallado sobre el funcionamiento de los modelos avanzados de IA, identifica los riesgos que representan y propone soluciones para mitigarlos. Además, establece un marco de actualización periódica bajo la supervisión del secretariado británico para garantizar que los avances en IA sean monitoreados en tiempo real.
El informe ha servido como base para los debates en la cumbre, destacando la necesidad de:
- Fortalecer los marcos regulatorios globales para garantizar la seguridad de la IA.
- Desarrollar metodologías de evaluación técnica robustas para detectar vulnerabilidades en los modelos de IA.
- Evitar la concentración de poder tecnológico en pocas empresas, promoviendo el acceso equitativo a la IA.
Francia impulsa la seguridad en IA con la creación de INESIA
En el marco de la cumbre, la ministra francesa de Inteligencia Artificial y Economía Digital, Clara Chappaz, anunció la creación de INESIA (Instituto Francés para la Evaluación y Seguridad de la IA), una iniciativa liderada por la Secretaría General de Defensa y Seguridad Nacional (SGDSN) y la Dirección General de Empresas (DGE).
El objetivo de INESIA es consolidar la capacidad de Francia para evaluar la seguridad de los modelos de IA, promoviendo estándares técnicos y reguladores en cooperación con otros países. Se suma a la red internacional de Institutos de Seguridad de la IA, que fue lanzada en la Cumbre de Bletchley Park y que ahora está presente en más de diez países, con un nodo central en San Francisco desde noviembre de 2024.
Una de las primeras acciones de esta red global ha sido un ejercicio conjunto de evaluación de modelos de IA, liderado por Singapur, Japón y el Reino Unido, para mejorar la eficacia de los sistemas de evaluación en diferentes idiomas. Francia ha contribuido con conjuntos de datos especializados en ciberseguridad, un área crítica dentro de la gobernanza de la IA.
Además, se anunció la creación de un ranking de modelos de IA en francés, desarrollado por la coordinación nacional de IA de Francia en colaboración con Hugging Face, el Ministerio de Educación, Inria, LNE y GENCI. Este ranking permitirá comparar los modelos lingüísticos en lengua francesa con criterios transparentes y objetivos, asegurando su optimización para el ecosistema francófono.
Grandes inversiones en IA: Europa busca reforzar su competitividad tecnológica
La cumbre también ha sido el escenario de importantes anuncios de inversión en el sector de la IA. Entre ellos destaca un plan de inversión de 150.000 millones de euros impulsado por General Catalyst, junto con más de 60 grandes empresas tecnológicas, entre ellas ASML, Airbus, Siemens, Volkswagen, Spotify y Mistral AI.
Este plan tiene como objetivo:
- Reducir la brecha de inversión en IA en Europa, proporcionando acceso a financiación para startups y empresas emergentes.
- Acelerar el desarrollo de infraestructura de IA, incluyendo centros de datos y plataformas de entrenamiento de modelos.
- Colaborar con la Comisión Europea en la simplificación del marco regulador para fomentar la innovación en IA.
Por otro lado, el presidente Macron anunció una inversión de 109.000 millones de euros para el desarrollo de la IA en Francia. Parte de esta inversión proviene de un acuerdo con Emiratos Árabes Unidos para construir el mayor campus de centros de datos de Europa, con un financiamiento de entre 30.000 y 50.000 millones de euros.
Asimismo, la empresa canadiense Brookfield anunció una inversión de 20.000 millones de euros en infraestructura de IA en Francia, mientras que compañías como Iliad, Orange y Thales han comprometido fondos adicionales para proyectos tecnológicos en el país.
Combatiendo la manipulación informativa y la ciberseguridad con IA
Uno de los retos más urgentes que enfrenta la IA es su uso en la manipulación de la información y la desinformación masiva. La agencia francesa VIGINUM, junto con la OCDE y el Ministerio de Cultura, presentó un informe sobre los riesgos que supone la IA en la manipulación digital, así como las oportunidades que ofrece para combatir la desinformación.
Entre las herramientas destacadas en la cumbre se encuentran:
- D3lta, un software de código abierto diseñado para detectar manipulación textual a gran escala mediante IA.
- Meta-detector de contenido generado por IA, desarrollado por PEReN y VIGINUM, que agrupa distintas técnicas de detección de contenido sintético.
En el ámbito de la ciberseguridad, el Instituto Politécnico de París presentó un análisis internacional de riesgos en IA, seguido por un simulacro de crisis en ciberseguridad, que contó con la participación de más de 200 expertos en IA y seguridad digital.
Hacia una regulación global de la IA: el AI Act y el Código de Conducta de Hiroshima
La Unión Europea ha tomado la delantera en la regulación de la IA con la adopción del AI Act, la primera normativa vinculante a nivel mundial que establece un marco regulador para los sistemas de IA. Su implementación está prevista para 2025, y la Comisión Europea está desarrollando un Código de Buenas Prácticas en colaboración con el sector privado.
A nivel internacional, el Código de Conducta del Proceso de Hiroshima, promovido por el G7, fue lanzado oficialmente durante la cumbre, instando a los desarrolladores de IA a adherirse a principios éticos y de seguridad.
Finalmente, se firmó la Declaración sobre IA inclusiva y sostenible para las personas y el planeta , con el respaldo de más de 60 países y organismos internacionales, reafirmando el compromiso global con una IA ética, segura y accesible.