El rápido desarrollo de la Inteligencia Artificial tiene beneficios evidentes para la sociedad en su conjunto, aunque también genera importantes amenazas que pueden provocar atentados contra los derechos de individuos o empresas , como ya ha comenzado a ocurrir con el denominado deepfake, un fenómeno que provoca diferentes tipos de fraudes y manipulaciones contra individuos o entidades y que crece a un ritmo anual del 900%, según datos del Foro Económico Mundial.
Los especialistas se han puesto a trabajar inmediatamente para poner freno a esta nueva modalidad y algunos, como la firma Innovery, se preguntan si acabarán alcanzando a los ataques más habituales en nuestros días (el ramsonware o secuestro de activos digitales para exigir un rescate económico) que aumentan un 59% cada año.
El impacto de los deepfakes puede ser más difuso que el resto de los ataques ya conocidos, afectando principalmente a la reputación y la confianza en una empresa. En algunos casos, pueden propiciar fraudes, suplantación de identidad, manipulación comercial, difamación de empleados o engaños a través de videollamadas, entre otros.
En este sentido, Innovery, la multinacional de servicios de asesoramiento especializada en soluciones TIC, destaca 6 puntos en los que es posible ayudar a las compañías afectadas por fraudes de este tipo:
– Desarrollar inteligencia artificial diseñada para su detección. La experiencia de Innovery en Machine Learning e inteligencia Artificial permite el desarrollo de algoritmos avanzados, capaces de detectar deepfakes con alta precisión. Pueden incluso analizar vídeos y audios, en busca de anomalías sutiles que indiquen una manipulación
– Avanzar en soluciones de ciberseguridad que integren la detección de deepfakes, como una de sus características. Esto sería particularmente útil para proteger a las empresas de este tipo de fraude
– Autenticar los contenidos multimedia. Desarrollar sistemas que permitan a las empresas verificar el contenido multimedia publicado o compartido. Esto puede incluir tecnologías de marcas de agua digitales o blockchain para garantizar la integridad del contenido.
– Realizar simulaciones y entrenamiento. Gracias al uso de la Inteligencia Artificial, es posible crear simulaciones de ataque, basados en deepfake, para capacitar a los trabajadores que conforman la empresa, en su detección y respuesta.
– Desarrollar herramientas de evaluación de riesgos, capaces de ayudar a estimar el nivel de vulnerabilidad, ante este tipo de ataques, y ofrecer recomendaciones de seguridad.
– Introducir análisis forense. En caso de incidente relacionado con deepfakes, es posible ofrecer servicios de análisis forense, para ayudar a entender cómo se produjo el fraude y cómo protegerse de cara al futuro.
Aventuran los analistas que esta modalidad de ataque se mantendrá en los próximos años, y algunas voces ya predicen que, en 2026, prácticamente el 90% del contenido online será generado artificialmente, llevando a un deterioro de la confianza y un aumento de la amenaza para las empresas.
Por este motivo, la Unión Europea votó, hace tan solo unos días y por primera vez, en favor de una Ley de Inteligencia Artificial que regule el desarrollo de este avance tecnológico que está agitando la actualidad de todos los países occidentales, por impactar directamente en los derechos y libertades de todos los ciudadanos.