La inteligencia artificial (IA) continúa transformando el panorama de la ciberseguridad, ofreciendo soluciones avanzadas mientras introduce riesgos significativos. En este contexto, ESET advierte que 2025 será un año crucial para evaluar la influencia de esta tecnología en la lucha contra las amenazas cibernéticas, así como su impacto en usuarios, empresas y gobiernos.
La doble cara de la IA: riesgos y beneficios
La IA se ha consolidado como una herramienta clave para fortalecer las defensas cibernéticas, pero también es explotada por ciberdelincuentes para llevar a cabo ataques cada vez más sofisticados. Según el Centro Nacional de Ciberseguridad del Reino Unido (NCSC), en los próximos dos años se espera un aumento significativo en el volumen y la efectividad de los ataques facilitados por IA generativa. Entre los principales riesgos, ESET destaca:
- Elusión de autenticación: Tecnologías deepfake utilizadas para superar sistemas de verificación basados en biometría.
- Fraude corporativo: Uso de IA para crear correos electrónicos comprometidos (BEC) y vídeos falsos que simulan directivos de empresas.
- Suplantación de identidad avanzada: Herramientas lingüísticas abiertas permiten a los atacantes imitar perfiles de redes sociales para estafar a contactos cercanos.
- Desinformación a gran escala: Grupos organizados y estados hostiles pueden usar IA generativa para amplificar contenidos falsos y campañas maliciosas.
ESET resalta que la IA generativa está amplificando las capacidades de los atacantes al hacer que sus estrategias sean más persuasivas y difíciles de detectar.
Regulación y privacidad: retos críticos en 2025
El uso intensivo de datos para entrenar modelos de IA plantea serias preocupaciones sobre la privacidad. Josep Albors, director de investigación y concienciación de ESET España, señala que “datos biométricos, financieros y personales están en riesgo si los sistemas de IA son comprometidos”. Además, alerta sobre el peligro de compartir información confidencial en aplicaciones que emplean esta tecnología.
En el ámbito regulador, el panorama global es complejo. Mientras Estados Unidos podría avanzar hacia una desregulación tecnológica, Europa enfrenta incertidumbres respecto a la implementación de la Ley de Inteligencia Artificial. Según ESET, la falta de un marco normativo claro podría facilitar la proliferación de amenazas basadas en IA. La empresa aboga por una colaboración activa entre gobiernos, empresas y usuarios para mitigar los riesgos asociados.
La IA como aliada estratégica de la ciberseguridad
A pesar de los riesgos, la IA también promete avances significativos para reforzar la ciberseguridad en 2025. ESET identifica diversas aplicaciones prácticas que están transformando la forma en que los equipos de seguridad enfrentan las amenazas:
- Datos sintéticos: Generación de conjuntos de datos simulados para entrenar herramientas y personal en detección de ataques.
- Automatización: Priorización de alertas y respuesta rápida a incidentes mediante flujos de trabajo automatizados.
- Análisis predictivo: Procesamiento masivo de datos para identificar patrones sospechosos.
- Reducción de errores humanos: Implementación de sistemas de “copiloto” para ayudar a los profesionales a tomar decisiones informadas.
ESET subraya que, aunque la IA puede revolucionar la seguridad cibernética, es esencial complementarla con la experiencia humana para minimizar riesgos como las alucinaciones de modelos y los errores de interpretación.
Una revolución tecnológica inevitable
El avance de la IA en ciberseguridad plantea un equilibrio entre los beneficios potenciales y los desafíos éticos, regulatorios y técnicos. Josep Albors concluye que 2025 será decisivo para establecer un entorno digital más seguro: “Aprovechar el potencial de la IA requiere una colaboración activa entre gobiernos, empresas y usuarios. Solo así será posible maximizar sus beneficios mientras se gestionan sus riesgos”.