
Editor en La Ecuación Digital. Consultor de Innovación y Estrategia…
El informe AI Readiness Report 2025 , elaborado por Kyndryl, revela una brecha significativa entre la confianza de los líderes empresariales en sus implementaciones de inteligencia artificial (IA) y su preparación para enfrentar riesgos futuros. La investigación, basada en una encuesta global a 3.200 ejecutivos y datos de la plataforma Kyndryl Bridge, ofrece una visión detallada sobre los obstáculos y oportunidades que enfrentan las organizaciones en el camino hacia la madurez en IA.
Una paradoja en la adopción de la IA
El estudio destaca un hallazgo clave: el 86% de los líderes encuestados confía en sus sistemas de IA, pero solo el 29% considera que están preparados para gestionar riesgos a largo plazo. A pesar de la creciente inversión en esta tecnología, solo el 42% de las empresas reporta un retorno positivo sobre sus inversiones en IA.
Este contraste resalta la necesidad de mejorar la gobernanza, la seguridad y la capacitación en IA para maximizar sus beneficios. La adopción de esta tecnología sigue encontrando barreras significativas, entre las que destacan la privacidad y seguridad de los datos (señalada por el 71% de los encuestados), así como la falta de métricas claras para evaluar su valor, la complejidad regulatoria y la escasez de talento especializado.
Desafíos clave en la adopción de la IA
El informe identifica varias áreas críticas que limitan la expansión y el impacto positivo de la IA en las empresas:
1. Privacidad y seguridad de los datos
Las preocupaciones sobre el acceso, almacenamiento y uso de los datos son el principal obstáculo para la adopción de IA. La protección de la información sensible y el cumplimiento normativo continúan siendo desafíos fundamentales para las organizaciones que buscan aprovechar el potencial de la IA sin comprometer la seguridad.
2. Dificultades en la medición del retorno de inversión
Muchas empresas enfrentan problemas para definir métricas claras que permitan evaluar el valor generado por la IA. El 42% de los líderes informa que, a pesar de haber invertido en inteligencia artificial, no han logrado obtener un retorno positivo. Esto sugiere la necesidad de mejorar los modelos de evaluación y adaptar las expectativas de negocio a los plazos de maduración de esta tecnología.
3. Falta de talento especializado
La escasez de profesionales con experiencia en IA y aprendizaje automático es otro factor que dificulta la implementación eficaz de esta tecnología. La demanda de expertos en ciencia de datos, ética en IA y seguridad informática sigue superando la oferta disponible, lo que ralentiza la adopción y la integración efectiva de estos sistemas en las organizaciones.
4. Cumplimiento normativo y regulaciones cambiantes
El marco normativo en torno a la IA continúa evolucionando, lo que genera incertidumbre para muchas empresas. La necesidad de cumplir con regulaciones cada vez más estrictas en materia de protección de datos y ética en IA añade una capa adicional de complejidad a la adopción de esta tecnología.
Tres áreas clave para mejorar la seguridad en IA hacia 2025
En el contexto del informe, Cory Musselman, vicepresidente senior de Ciberseguridad en Kyndryl, destaca tres áreas estratégicas que las empresas deben priorizar para fortalecer la seguridad en sus proyectos de IA:
1. Establecimiento de un marco sólido de gobernanza
Implementar una estructura de gobernanza clara es esencial para garantizar el uso responsable de la IA. Este marco debe incluir controles sobre seguridad, privacidad y cumplimiento normativo, asegurando que los sistemas sean auditables y que se minimicen los riesgos asociados al uso de IA generativa.
2. Reforzamiento de la capacitación en ciberseguridad
El crecimiento de ataques sofisticados impulsados por IA generativa, como el phishing avanzado y los deepfakes, requiere que las empresas refuercen la formación de sus empleados en materia de ciberseguridad. Los programas educativos deben ser dinámicos, adaptándose a las nuevas amenazas y ofreciendo estrategias prácticas para la detección y prevención de ataques.
3. Implementación de una arquitectura Zero Trust
El modelo Zero Trust, que trata todo tráfico de red como potencialmente no confiable hasta que se demuestre lo contrario, se presenta como una estrategia clave para fortalecer la ciberseguridad en entornos de IA. Esta arquitectura proporciona múltiples capas de validación, reduciendo la exposición a ciberataques y garantizando una protección más robusta en infraestructuras tecnológicas complejas.
Oportunidades y próximos pasos para las empresas
El AI Readiness Report 2025 subraya que, si bien existen barreras importantes para la adopción de IA, también se presentan oportunidades para aquellas empresas que logren establecer un equilibrio entre seguridad operativa, confianza organizacional y diseño centrado en las personas.
Las organizaciones que adopten medidas preventivas en materia de ciberseguridad y gobernanza estarán mejor posicionadas para aprovechar el potencial transformador de la IA, asegurando no solo su viabilidad técnica, sino también su aceptación y utilidad dentro del ecosistema empresarial.