Estás leyendo
El Departamento de Seguridad Nacional de EE. UU. desvela 158 casos de uso de inteligencia artificial

El Departamento de Seguridad Nacional de EE. UU. desvela 158 casos de uso de inteligencia artificial

  • El Departamento de Seguridad Nacional de EE. UU. detalla 158 aplicaciones activas de inteligencia artificial, destacando el reconocimiento facial y herramientas de seguridad, con un enfoque en la transparencia y la gestión de riesgos.
Inteligencia Artificial - Tendencias

El Departamento de Nacional (DHS, por sus siglas en inglés) ha presentado su inventario más reciente sobre el uso de la (IA), revelando un total de 158 casos de uso activos para 2024.

Este dato marca un incremento significativo respecto a los 67 casos documentados en el año anterior, reflejando una estrategia más amplia de integración tecnológica y un compromiso con la transparencia. Este anuncio se produce tras las directrices del memorando M-24-10, emitido por la Oficina de Gestión y Presupuesto (OMB), que establece nuevos estándares para la gestión de riesgos en el uso de IA en organismos gubernamentales.

Eric Hysen, director de información y jefe de inteligencia artificial del DHS, indicó que 39 de estos casos de uso fueron clasificados como de alto impacto para la seguridad o los derechos civiles. De ellos, 29 ya están operativos y 10 se encuentran en fases previas a su despliegue. Este enfoque subraya la importancia de la supervisión en el uso de estas tecnologías, especialmente en contextos relacionados con derechos civiles y libertades individuales.

La expansión del uso de la IA en el DHS

El DHS ha implementado aplicaciones de IA en diversas áreas clave, muchas de ellas relacionadas con la seguridad nacional, el control migratorio y la protección fronteriza. Estas herramientas buscan no solo optimizar procesos, sino también ofrecer mayor eficacia en contextos sensibles, como la investigación criminal y el control de mercancías peligrosas.

Entre los casos de uso destacados, aproximadamente la mitad de los 29 ya desplegados involucran tecnologías de reconocimiento facial y . Estas herramientas, sujetas a normativas estrictas dentro del organismo, han sido revisadas bajo un nuevo marco de cumplimiento para garantizar que respeten los derechos de las personas.

Ejemplos destacados de aplicaciones de IA incluyen:

  • Babel: Una tecnología pasiva utilizada por la Oficina de Aduanas y Protección Fronteriza (CBP, por sus siglas en inglés) para detectar armas en cruces fronterizos peatonales. Este escáner corporal ayuda a identificar objetos ocultos, como armas o contrabando, y es clave en los puntos de entrada más concurridos.
  • Vehículo submarino autónomo: Una herramienta empleada en el monitoreo de actividades ilícitas en zonas marítimas, utilizada principalmente para reforzar el control en áreas de difícil acceso.
  • Cámaras corporales habilitadas con IA: Utilizadas por la Administración de Seguridad en el Transporte (TSA) para mejorar la supervisión en sus operaciones, complementadas por un sistema generativo de IA diseñado para gestionar flujos de trabajo internos.
  • Reconocimiento facial para identificación forense: Herramientas usadas por el Servicio de Inmigración y Control de Aduanas (ICE) en investigaciones de delitos graves, incluyendo la explotación infantil, y como apoyo en otras investigaciones criminales.

Además de estas aplicaciones específicas, el DHS ha desarrollado un chatbot generativo interno para facilitar las operaciones de la Agencia de Ciberseguridad e Infraestructura (CISA), un ejemplo de cómo la IA también se emplea para optimizar tareas administrativas.

Impacto en derechos y seguridad: un enfoque normativo estricto

El memorando M-24-10 exige que todas las aplicaciones de IA consideradas como impactantes para los derechos o la seguridad cumplan con requisitos estrictos de gestión de riesgos. Este marco incluye la supervisión humana constante, la mitigación de posibles discriminaciones generadas por IA, y pruebas de desempeño en escenarios del mundo real.

Según Hysen, 24 de los 29 casos de uso implementados ya cumplen con estas normativas. Sin embargo, cinco recibieron extensiones temporales para cumplir plenamente con los requisitos debido a la complejidad de los ajustes necesarios. Estas extensiones permiten a las agencias recopilar información adicional sobre la precisión de los modelos, los datos de entrenamiento y el monitoreo continuo de su desempeño.

Te puede interesar
Inteligencia artificial en servicios financieros

Entre los casos que requieren estas extensiones se encuentran:

  • CBP Translate: Una herramienta de traducción diseñada para romper barreras de comunicación en interacciones informales entre agentes fronterizos y viajeros, aunque no se utiliza en entrevistas formales.
  • Babel y Fivecast ONYX: Tecnologías empleadas para búsquedas en redes sociales y recursos abiertos como parte de investigaciones en curso.
  • Escáner corporal pasivo: Destinado a la identificación de objetos peligrosos o contrabando en peatones en instalaciones fronterizas.
  • Herramienta de análisis de vídeo: Un sistema que recorta rostros de grabaciones de vídeo obtenidas legalmente, facilitando su comparación con bases de datos biométricas para investigaciones criminales.

Casos específicos en inmigración y justicia penal

El informe también detalla dos casos que han generado interés público debido a su uso en el contexto de la inmigración: el Hurricane Score y el sistema de Evaluación de Clasificación de Riesgos (RCA).

  • Hurricane Score: Este sistema predictivo evalúa el riesgo de que una persona bajo programas alternativos a la detención incumpla con sus obligaciones. Aunque no toma decisiones de manera autónoma, proporciona a los oficiales de ICE una puntuación basada en varios factores, como el historial de cumplimiento y la documentación disponible. Este caso fue considerado de impacto en derechos, y se realizaron pruebas adicionales para garantizar que el algoritmo no presentara sesgos demográficos.
  • RCA: Aunque relacionado con la IA, el DHS determinó que este sistema no se clasifica como inteligencia artificial según las definiciones del M-24-10. La herramienta automatiza reglas establecidas por humanos para evaluar riesgos de seguridad pública y de fuga, sin emplear técnicas de aprendizaje automático.

Compromiso con la transparencia y el diálogo público

En un esfuerzo por garantizar el entendimiento público y el escrutinio, el DHS ha incrementado la información disponible en su inventario. Mientras que en 2023 el documento incluía 17 campos de datos, la versión de 2024 amplió esta cifra a 54, proporcionando detalles sobre objetivos, beneficios, resultados esperados, y cumplimiento normativo.

Adicionalmente, el DHS ha involucrado a la sociedad civil y expertos en derechos en el desarrollo de sus políticas de IA. Durante 2024, el organismo organizó reuniones con líderes en derechos civiles, incluyó opiniones de expertos en su Junta de Seguridad de IA, y celebró consultas con comunidades afectadas.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad