Estás leyendo
La segunda AI Safety Summit enfrenta desafíos y menor asistencia

La segunda AI Safety Summit enfrenta desafíos y menor asistencia

  • Menor participación y nuevos interrogantes marcan la AI Seoul Summit coorganizada por Reino Unido y Corea del Sur
AI Seoul Summit

El año pasado, la primera Cumbre Global de Seguridad en IA en Park reunió a líderes mundiales, ejecutivos corporativos y expertos académicos con el objetivo de alcanzar un consenso sobre la regulación de una tecnología que algunos advertían representaba una amenaza para la humanidad. Personalidades destacadas como Elon Musk, de Tesla, y Sam Altman, CEO de OpenAI, estuvieron presentes, y China firmó la Declaración de Bletchley junto con Estados Unidos y otros países, mostrando una disposición a cooperar a pesar de las crecientes tensiones con Occidente.

Seis meses después, la segunda cumbre, principalmente virtual, se enfrenta a un menor número de asistentes relevantes. Martha Bennett, analista senior de Forrester, señaló que «hay enfoques radicalmente diferentes… será difícil avanzar más allá de lo acordado en Bletchley Park». Las preguntas más complejas sobre el uso de material con derechos de autor, la escasez de datos y el impacto ambiental también parecen poco probables de atraer a una congregación tan destacada.

Participación y enfoque del evento

AI Seoul Summit
AI Seoul Summit

La cumbre, celebrada del 21 al 22 de mayo de 2024 en Corea del Sur, se había anunciado como una “mini cumbre” en preparación para la próxima reunión en persona en París. Sin embargo, muchas figuras importantes y ministros han rechazado las invitaciones a Seúl. La Unión Europea, por ejemplo, confirmó que sus principales reguladores tecnológicos no asistirían. Mientras tanto, Estados Unidos enviará representantes, aunque no especificó quiénes, y Canadá y los Países Bajos no asistirán. Brasil todavía está considerando su invitación debido a un conflicto con un evento del G20 que se celebra la misma semana.

A pesar de la menor asistencia, la cumbre logró avances significativos. Los líderes mundiales acordaron lanzar una red de institutos de seguridad en IA, que reunirá a científicos de instituciones financiadas públicamente para compartir información sobre los riesgos, capacidades y limitaciones de los modelos de IA. Este acuerdo se alcanzó durante una sesión virtual de la cumbre y fue coorganizado por Reino Unido y Corea del Sur.

Compromisos y acuerdos logrados

Durante la cumbre, diez países y la Unión Europea se comprometieron a desarrollar más institutos de seguridad en IA para alinear la investigación sobre estándares de aprendizaje automático y pruebas. Este esfuerzo internacional incluye a la UE, Francia, Alemania, Italia, Reino Unido, Estados Unidos, Singapur, Japón, Corea del Sur, Australia y Canadá. La red de institutos también supervisará “incidentes específicos de seguridad en IA” cuando ocurran.

El primer ministro británico, Rishi Sunak, expresó su entusiasmo por el acuerdo alcanzado: «La IA es una tecnología enormemente emocionante… pero para obtener los beneficios, debemos garantizar que sea segura. Por eso me complace que hoy hayamos conseguido un acuerdo para una red de Institutos de Seguridad en IA».

Te puede interesar
GSMA Open Gateway

Declaración de Seúl y compromisos de seguridad

AI Seoul Summit
AI Seoul Summit

Los líderes también firmaron la Declaración de Seúl, que subraya la importancia de una “cooperación internacional mejorada” para desarrollar una IA centrada en el ser humano y confiable. En el primer día de la cumbre, 16 de las mayores empresas tecnológicas del mundo, incluyendo OpenAI, Mistral, Amazon, Anthropic, Google, Meta, Microsoft e IBM, acordaron un conjunto de compromisos de seguridad. Estos compromisos incluyen establecer umbrales para cuando los riesgos de la IA se vuelvan demasiado altos y ser transparentes al respecto.

Aunque la asistencia a la segunda cumbre de seguridad en IA fue menor que la del evento inaugural en Bletchley Park, los acuerdos alcanzados en Seúl marcan un paso importante hacia la colaboración internacional en la regulación de la IA. La creación de una red de institutos de seguridad en IA y los compromisos de las grandes empresas tecnológicas son indicativos de un esfuerzo continuo para garantizar que el desarrollo de la IA sea seguro y beneficioso para la sociedad.

A medida que el mundo avanza hacia la próxima cumbre en París, prevista para 2025, será crucial observar cómo se desarrollan estos acuerdos y cómo los países y las empresas implementan las medidas acordadas para enfrentar los desafíos y aprovechar las oportunidades que presenta la .

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad