Estás leyendo
El auge de DeepSeek subraya la necesidad de reforzar la seguridad en la inteligencia artificial

El auge de DeepSeek subraya la necesidad de reforzar la seguridad en la inteligencia artificial

  • DeepSeek destaca la necesidad de reforzar la seguridad en la inteligencia artificial, especialmente frente a vulnerabilidades como el jailbreaking en modelos de lenguaje a gran escala.
La integración de plataformas: clave para reducir la complejidad en ciberseguridad, según IBM y Palo Alto Networks

La irrupción de DeepSeek en el mercado de la inteligencia artificial (IA) ha generado un impacto significativo en la economía de las aplicaciones basadas en esta tecnología. Sin embargo, su llegada también ha puesto de manifiesto la creciente necesidad de garantizar la seguridad en el uso de modelos de lenguaje a gran escala (LLM, por sus siglas en inglés), especialmente en un contexto donde las empresas están integrando cada vez más estas herramientas en sus operaciones diarias.

La seguridad como prioridad en el diseño de la IA

Para abordar los riesgos asociados con el uso de la IA, las organizaciones deben adoptar un enfoque de  que garantice la integridad de los marcos de seguridad desde la fase de desarrollo hasta el despliegue. En este contexto, Palo Alto Networks ha desarrollado su solución  AI Access Security , diseñada para permitir a las empresas utilizar herramientas de IA de manera segura y desplegar aplicaciones empresariales basadas en esta tecnología.

El portafolio de soluciones de Palo Alto Networks, impulsado por Precision AI, busca mitigar los riesgos asociados con el uso de aplicaciones públicas de generación de IA (GenAI). Estas soluciones emplean tecnologías avanzadas de aprendizaje automático (ML) y aprendizaje profundo (Deep Learning) que, además de ser computacionalmente eficientes, ofrecen un enfoque más seguro para la adopción de la IA en las organizaciones.

Vulnerabilidades en DeepSeek: el desafío del jailbreaking

Una investigación reciente de Unit 42, el equipo de inteligencia de amenazas de , ha revelado que presenta vulnerabilidades significativas frente al jailbreaking, una técnica que permite eludir las restricciones de seguridad implementadas en los LLM. Estas restricciones, conocidas como «» o barreras de seguridad, están diseñadas para evitar que los modelos generen contenido malicioso o prohibido.

Los investigadores identificaron dos métodos novedosos de jailbreaking, denominados Deceptive Delight y Bad Likert Judge, que demostraron ser efectivos no solo contra DeepSeek, sino también contra otros modelos de lenguaje. Además, se probó una técnica de múltiples etapas llamada Crescendo, que también logró superar las barreras de seguridad de DeepSeek.

Implicaciones para la seguridad empresarial

Sam Rubin, vicepresidente senior de Consultoría e Inteligencia de Amenazas de Unit 42, destacó la importancia de considerar estas vulnerabilidades al incorporar LLM de código abierto en los procesos empresariales. Según Rubin, «debemos asumir que las barreras de seguridad de los LLM pueden ser quebrantadas y que se necesitan salvaguardas a nivel organizacional».

La investigación también señala que actores de amenazas, incluidos aquellos vinculados a estados nacionales, están utilizando herramientas como OpenAI y Gemini para lanzar ciberataques, mejorar técnicas de phishing y desarrollar malware. Esto subraya la necesidad de que las empresas implementen medidas de seguridad robustas para protegerse contra el uso malintencionado de la IA.

Te puede interesar
Cinco pasos clave para cumplir con normativas de ciberseguridad y proteger tu negocio

El futuro de la seguridad en la inteligencia artificial

A medida que la adopción de la IA continúa creciendo, también lo hacen las capacidades de los atacantes. Según los expertos, es probable que los actores de amenazas refinen su uso de los LLM y comiencen a desarrollar agentes de ataque basados en IA, lo que podría aumentar la velocidad, el alcance y la sofisticación de los ciberataques.

En este contexto, garantizar la seguridad de los modelos de IA no solo es una responsabilidad técnica, sino también estratégica para las organizaciones. La implementación de salvaguardas adecuadas y la colaboración entre empresas y expertos en ciberseguridad serán clave para mitigar los riesgos asociados con el uso de esta tecnología.

Un desafío en constante evolución

El caso de DeepSeek pone de relieve que la seguridad en la inteligencia artificial es un objetivo en movimiento. Las organizaciones deben mantenerse alerta y adoptar un enfoque proactivo para proteger sus sistemas y datos frente a las amenazas emergentes. En un entorno donde la IA desempeña un papel cada vez más central, la seguridad no puede ser una consideración secundaria.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad