Estás leyendo
El Impacto de la IA en la ciberseguridad
Banner

El Impacto de la IA en la ciberseguridad

  • La investigación de Kaspersky detalla cómo evolucionará el panorama de las amenazas relacionadas con la IA
Ciberseguridad

La ha sido la gran protagonista en la feria internacional de tecnología CES, celebrada la semana pasada en Las Vegas: desde cepillos de dientes hasta barbacoas o coches, cada vez más elementos de nuestra vida cotidiana incluyen esta tecnología de una forma u otra. Ante la proliferación de su uso, los expertos de realizaron un  análisis sobre la gran influencia de la IA en el panorama de  , explorando sus implicaciones y centrándose en el uso que tanto los defensores y reguladores como los ciberdelincuentes pueden darle a esta herramienta.

La investigación de Kaspersky detalla cómo evolucionará el panorama de las amenazas relacionadas con la IA y reitera la importancia de contar con un marco regulatorio que permita el uso responsable de esta herramienta. Entre los aspectos más relevantes del estudio ‘El Impacto de la IA en la ciberseguridad’ destacan:

Vulnerabilidades más complejas

A medida que los Modelos de Lenguaje a Gran Escala (LLMs por sus siglas en inglés) se integran en más productos orientados al consumidor, surgirán nuevas vulnerabilidades complejas en la intersección de la IA generativa probabilística y las tecnologías deterministas tradicionales, ampliando la superficie de ataque que los profesionales de la ciberseguridad deben proteger. Esto requerirá que los programadores estudien nuevas medidas de seguridad, como la aprobación del usuario para las acciones que inician los agentes de LLMs que básicamente son los sistemas de IA para entender y generar texto de manera similar a cómo hacemos los seres humanos.

Un asistente integral de IA para los especialistas en ciberseguridad

Los analistas se valen de la IA generativa para crear herramientas innovadoras de ciberseguridad, lo que, potencialmente, llevaría a tener un asistente que utilice el LLM o el Aprendizaje Automático (ML, por sus siglas en inglés). Esta herramienta podría automatizar las tareas de los expertos en ciberseguridad, ofreciendo orientación basada en órdenes ejecutadas en un entorno de pentesting (ejercicio de prevención en el que un experto en ciberseguridad intenta encontrar y explotar vulnerabilidades en un sistema informático).

Las redes neuronales se utilizarán cada vez más para generar imágenes que ayuden a las estafas

Este año, los estafadores podrían ampliar sus tácticas utilizando redes neuronales para crear un contenido fraudulento más convincente aprovechando las herramientas de Inteligencia Artificial. Con la posibilidad de generar sin esfuerzo imágenes y vídeos convincentes, los agentes maliciosos plantean un mayor riesgo de intensificar las amenazas cibernéticas relacionadas con fraudes y estafas.

La IA no se convertirá en un motor de cambios revolucionarios en el panorama de amenazas durante 2024

A pesar de las tendencias anteriores, los expertos de Kaspersky siguen siendo escépticos respecto a que la IA cambie significativamente el panorama de amenazas en el corto plazo. Aunque los ciberdelincuentes adoptarán la IA generativa, lo mismo ocurre con los ‘ciberdefensores’, que utilizarán las mismas herramientas, o incluso otras más avanzadas, para probar la mejora de la seguridad en el software y las redes, lo que hace poco probable que alteren drásticamente el panorama de los ataques.

Te puede interesar
OpenAI presenta la búsqueda con ChatGPT

Más iniciativas regulatorias relacionadas con la IA con la contribución del sector privado

Con su rápido desarrollo, la tecnología se ha convertido en un asunto de formulación de políticas y regulación. Está previsto que aumente el número de iniciativas regulatorias relacionadas con la IA. Los agentes que no son estatales, como es el caso de las empresas de tecnología, dada su experiencia en el desarrollo y uso de la Inteligencia Artificial, pueden proporcionar conocimientos invaluables para los debates sobre la regulación de la IA en las plataformas, tanto globales como nacionales.

Marca de agua para contenido generado por IA

Se necesitarán más regulaciones, así como las políticas de los proveedores de servicios, para señalar o identificar el contenido sintético, y estos últimos deben seguir invirtiendo en tecnologías de detección. Los programadores e investigadores, por su parte, contribuirán en la creación de métodos de marca de agua para facilitar la identificación y procedencia de los medios sintéticos.

La Inteligencia Artificial en ciberseguridad es un arma de doble filo. Sus capacidades adaptativas fortalecen nuestras defensas y ofrecen un escudo proactivo contra las amenazas en evolución. Sin embargo, ese mismo dinamismo plantea riesgos, ya que los atacantes aprovechan la IA para diseñar ataques más complejos. Lograr el equilibrio adecuado y garantizar un uso responsable sin compartir demasiados datos confidenciales es primordial para proteger nuestras fronteras digitales.Vladislav Tushkanov, experto en seguridad de Kaspersky
Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad