Editor en La Ecuación Digital. Consultor de Innovación y Estrategia…
En medio de un acalorado debate sobre la legislación de la Inteligencia Artificial (IA) en la Unión Europea, Francia, Alemania e Italia propusieron recientemente un “modelo de autorregulación obligatoria” para los modelos fundacionales de IA.
Esta estrategia ha provocado un intenso debate sobre la idoneidad y eficacia de la IA. La propuesta tiene como objetivo dar a las empresas de IA un mayor control sobre sus propios modelos y contrasta con otras opiniones dentro de la UE.
Ahora, en un giro inesperado, y probablemente impulsado por la reciente crisis de OpenAI, un grupo de destacados investigadores, grupos de expertos y organizaciones de la sociedad civil han expresado su apoyo a la propuesta de la Presidencia española de un enfoque más estructurado para la gestión de riesgos en el modelo básico de la Ley de IA de la UE.
Este apoyo pone de relieve un cambio en la percepción sobre cómo deberían regularse estas tecnologías avanzadas y complejas y marca un momento clave en el debate sobre la regulación de la IA en Europa.
Una carta abierta a los eurodiputados europeos destaca el enfoque multinivel promovido por España, que atribuye la responsabilidad a los desarrolladores de los modelos básicos. Esta posición contrasta con las recientes propuestas de autorregulación obligatoria promovidas por Francia, Alemania e Italia, que han sido objeto de debate político y académico.
👇 “the chaos at OpenAI only serves to highlight the obvious: we can’t trust big tech to self-regulate. Reducing critical parts of the EU AI Act to an exercise in self-regulation would have devastating consequences for the world” -signatory Gary Marcushttps://t.co/TPXVkRf017
— Gary Marcus (@GaryMarcus) November 22, 2023
Los firmantes, incluidos Yoshua Bengio y Gary Marcus, destacan el perfil de riesgo único de los modelos básicos de IA. Argumentan que estos modelos difieren significativamente de la IA tradicional en términos de generalidad, costo de desarrollo y capacidad de actuar como un único punto de falla para múltiples aplicaciones.
Esta caracterización sugiere un enfoque más integrado y completo para la gestión de riesgos que va más allá de los esfuerzos no regulatorios actuales, como el Código de Conducta del G7 y la Orden Ejecutiva de la Casa Blanca sobre IA.
La carta también enfatiza que las regulaciones aplicables al modelo de corporatización, lejos de ser gravosas para la industria, brindan una protección esencial tanto para la industria de la UE como para los ciudadanos europeos.
Los firmantes enfatizan que los riesgos sistémicos inherentes a estos modelos requieren una gestión basada en riesgos en manos de quienes tienen la capacidad y eficiencia para abordarlos.
Este apoyo a la propuesta de España llega en un momento crítico para la legislación de la UE sobre IA. La necesidad de un marco regulatorio equilibrado que tenga en cuenta la presencia global del modelo de corporativización nunca ha sido más clara.
La propuesta española se centra en umbrales de TI y estándares medibles, ofreciendo soluciones prácticas que equilibren la innovación con una gestión eficaz del riesgo.
La carta abierta y el apoyo de estas organizaciones y figuras de alto perfil reafirman el liderazgo de Europa en el establecimiento de estándares de IA.
También enfatiza la importancia de resistir los intereses del lobby para proteger los procesos democráticos en la formulación de políticas.
El creciente apoyo a la propuesta de España refleja un consenso emergente en la comunidad científica y técnica sobre la necesidad de un enfoque regulatorio más estructurado y responsable para la gestión de modelos basados en IA.
La evolución del debate regulatorio de la IA en la UE es un paso importante hacia el desarrollo y la implementación responsables de estas tecnologías, con implicaciones que se extienden más allá de las fronteras de Europa.