Estás leyendo
Acuerdo global de seguridad de IA: Un hito histórico
Banner

Acuerdo global de seguridad de IA: Un hito histórico

  • Principales compañías tecnológicas acuerdan compromisos sobre seguridad de IA en un evento global, marcando un avance histórico en la regulación de la inteligencia artificial.
Inteligencia Artificial

En un evento sin precedentes, las principales compañías tecnológicas han acordado un conjunto de compromisos voluntarios sobre la seguridad de la (IA). Este acuerdo emblemático fue alcanzado por 16 gigantes tecnológicos durante la  Cumbre Global de Seguridad en IA , impulsada por Corea del Sur y el Reino Unido.

Entre las empresas firmantes se encuentran OpenAI, Mistral, Amazon, Anthropic, Google, Meta, Microsoft e IBM. Sorprendentemente, Zhipu.ai de China y el Instituto de Innovación Tecnológica de los Emiratos Árabes Unidos también se sumaron al compromiso.

Este pacto se centra en identificar los posibles riesgos de la IA, establecer umbrales para designar estos riesgos como inaceptables y promover la transparencia, según un comunicado del gobierno británico, que calificó este acuerdo como un “hito histórico”.

Además, las compañías se comprometieron a pausar modelos o sistemas de IA si no se lograban mitigar los riesgos asociados. El anuncio se realizó coincidiendo con el inicio de la cumbre de dos días AI Seoul Summit, continuación del encuentro de seguridad en IA celebrado el año pasado en , Reino Unido.

Francia será la nación encargada de albergar la próxima cumbre presencial sobre la temática. En la reunión pasada, celebrada en noviembre, cerca de 30 países firmaron una declaración en la que se comprometieron a garantizar que la IA sea «centrada en el ser humano, confiable y responsable».

El actual evento, llevado a cabo de manera virtual y coorganizado por el Reino Unido y Corea del Sur, pretende culminar con nuevos acuerdos entre los líderes mundiales. «No se había visto antes que tantas empresas líderes en IA de diversas partes del mundo acordaran los mismos compromisos sobre la seguridad de la IA», declaró el primer ministro del Reino Unido, Rishi Sunak, tras la firma del acuerdo. Sunak copresidirá una reunión virtual con líderes mundiales junto al presidente coreano Yoon Suk Yeol.

El segundo día de la cumbre contará con un debate entre ministros digitales. No obstante, la perspectiva de Mark Brakel, director de políticas en el Instituto Future of Life, añade una nota de precaución.

En una declaración a Euronews Next, Brakel destacó la necesidad de institucionalizar las medidas de seguridad. «El buen propósito no es suficiente. Si las compañías de IA son sinceras en sus compromisos de seguridad, deberían apoyar que dichos compromisos se consagren en la legislación», subrayó.

Te puede interesar
Ciberseguridad, cloud o IA generativa: cómo aplicar la tecnología de última generación en una compañía de salud

Este acuerdo llega en un momento en que las empresas tecnológicas aceleran el lanzamiento de nuevos modelos de IA. La semana pasada, OpenAI reveló su nuevo modelo GPT-4 con capacidades mejoradas, mientras que Google presentó nuevas funciones de IA para su motor de búsqueda y actualizaciones a su modelo Gemini.

Sin embargo, los recientes abandonos de líderes en el equipo de OpenAI, dedicado a prevenir que los sistemas de IA se descontrolen, han generado inquietudes adicionales. Jan Leike, excolíder de ese equipo, explicó que renunció en parte porque «la cultura y los procesos de seguridad han quedado relegados frente a productos deslumbrantes,» y urgió a OpenAI a priorizar la seguridad.

El panorama regulatorio también está en movimiento.

Se espera que la Ley de IA de la UE, pionera a nivel mundial, entre en vigor el próximo mes. Asimismo, la Asamblea General de la ONU adoptó una resolución este año para promover una IA «segura, segura y confiable». En apoyo a estas iniciativas, el mes pasado Estados Unidos y el Reino Unido firmaron un acuerdo para desarrollar pruebas de seguridad para los modelos de IA más avanzados.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad