Estás leyendo
Prosegur refuerza su compromiso con el uso ético y responsable de la Inteligencia Artificial

Prosegur refuerza su compromiso con el uso ético y responsable de la Inteligencia Artificial

  • Dentro del interés de la compañía por mantenerse a la vanguardia de la innovación y seguir incorporando tecnologías punteras en los productos y servicios, Prosegur ha establecido los pilares fundamentales que regirán su política de IA: licitud, ética y robustez
  • Para prevenir los potenciales riesgos que pueden impactar en las personas y las empresas, la compañía ha incorporado desde 2022 su Política de Inteligencia Artificial Responsable, una norma de alcance global que determina los principios, requisitos de evaluación y metodología para aplicar una IA responsable
Foto Comite 1 002

Prosegur, grupo líder en seguridad en España, ha dado un paso más en su propósito de cuidar a las personas y las empresas, publicando la primera Política de Responsable aplicable a todos los países en los que opera. Su objetivo es garantizar los derechos y las libertades de todas las personas que pudieran verse afectadas por el uso de soluciones y tecnologías de Inteligencia Artificial, además de establecer las bases que regirán su aplicación en todos los proyectos que la incorporen. De esta manera, la compañía pone de manifiesto su interés en continuar utilizando la tecnología más puntera en todos sus productos y servicios, manteniéndose a la vanguardia de la innovación.

“Aunque la aplicación de la Inteligencia Artificial (IA) conlleva grandes beneficios, también debemos prevenir sus riesgos”, explica. Esta capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar los conocimientos emulando al cerebro humano ha adquirido una gran importancia en los últimos tiempos, y cada vez son más los usos en los que se emplea. Sin embargo, al ser una tecnología tan potente en todos los sentidos, también conlleva una gran responsabilidad en cuanto a su aplicación y seguimiento.

Para prevenir y controlar esos posibles riesgos, desde se ha instaurado un procedimiento que establece que la IA desarrollada o adquirida por la compañía debe seguir tres pilares y, por lo tanto, definirse como: lícita (con el objetivo de garantizar el respeto de todas las leyes y reglamentos aplicables), ética (para asegurar el cumplimiento de los principios y valores éticos) y robusta (tanto desde el punto de vista técnico como social, ya que los sistemas de IA pueden provocar daños accidentales).

El uso de la Inteligencia Artificial está creciendo día a día, y de manera especial en la parte de soluciones de vídeo analítica, tal y como hemos podido detectar en Prosegur. Con esta nueva política de uso responsable de la IA queremos sumarnos a otras grandes compañías que ubican a la tecnología en el centro de sus operaciones, pero pretendemos hacerlo de una manera ética, lícita y robusta, como indica nuestra normativa.Miguel Soler, Presidente del Comité de IA Responsable y Director Legal y Cumplimiento del Grupo Prosegur

Principios éticos, requisitos clave y metodología

Para la elaboración de esta política, se han tomado como referencia los principios éticos recogidos por la Comisión Europea, con los que se pretende mejorar el bienestar individual y colectivo y que deben estar presentes en todos los proyectos de IA de Prosegur. Estos principios son, por un lado, el respeto a la autonomía humana y la garantía de que se realizará un control sobre los procesos de trabajo de los sistemas de IA para potenciar y complementar las aptitudes de las personas. Otro de los principios será la prevención del daño, con el que se garantiza que los sistemas de IA no perjudicarán a nadie ya que serán lo suficientemente seguros y robustos desde un punto de vista técnico. Asimismo, resaltan el principio de equidad para garantizar una distribución justa e igualitaria de sus beneficios y costes y la posibilidad de oponerse a las decisiones adoptadas por los sistemas de IA. Y, por último, destaca el principio de explicabilidad, que implica que todos los procesos de desarrollo de IA sean transparentes y se comunican de manera clara.

También se han pautado una serie de requisitos para garantizar que se trata de un sistema de Inteligencia Artificial Responsable, aplicables durante todo el ciclo de vida de estos procesos. En este sentido, debe activarse la supervisión humana para garantizar que los procesos sean seguros y se basen en una técnica sólida. Además, la gestión de los datos debe ser sólida para poder prevenir el daño a la privacidad, siendo un sistema transparente y que garantice la inclusión, la diversidad y la igualdad de acceso, además del bienestar ambiental y social. Por último, también será relevante la responsabilidad y rendición de cuentas sobre los sistemas de IA y sus resultados.

Te puede interesar
Yang Chaobin, miembro del consejo y presidente de Productos y Soluciones de TIC de Huawei

Por otro lado, la compañía también ha elaborado una metodología específica para aplicar esta política, diseñada de una manera muy pormenorizada. En primer lugar, el responsable de proyecto expondrá el modelo de negocio y la finalidad de la solución presentada. Posteriormente, el Comité de Inteligencia Artificial supervisará y garantizará el cumplimiento de la solución de IA y definirá los requisitos que se van a evaluar. Contando con la aprobación del comité, el desarrollador de IA diseñará, implementará y probará la solución y, por último, el operador de Inteligencia Artificial ejecutará y supervisará la solución.

De esta manera, se podrá defender el propósito de respetar los valores éticos y morales y garantizar el complimiento de las normas, promoviendo la utilización de la tecnología mediante el desarrollo y la adquisición de soluciones de Inteligencia Artificial.

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad