Prosegur, grupo líder en seguridad en España, ha dado un paso más en su propósito de cuidar a las personas y las empresas, publicando la primera Política de Inteligencia Artificial Responsable aplicable a todos los países en los que opera. Su objetivo es garantizar los derechos y las libertades de todas las personas que pudieran verse afectadas por el uso de soluciones y tecnologías de Inteligencia Artificial, además de establecer las bases que regirán su aplicación en todos los proyectos que la incorporen. De esta manera, la compañía pone de manifiesto su interés en continuar utilizando la tecnología más puntera en todos sus productos y servicios, manteniéndose a la vanguardia de la innovación.
“Aunque la aplicación de la Inteligencia Artificial (IA) conlleva grandes beneficios, también debemos prevenir sus riesgos”, explica. Esta capacidad de las máquinas para usar algoritmos, aprender de los datos y utilizar los conocimientos emulando al cerebro humano ha adquirido una gran importancia en los últimos tiempos, y cada vez son más los usos en los que se emplea. Sin embargo, al ser una tecnología tan potente en todos los sentidos, también conlleva una gran responsabilidad en cuanto a su aplicación y seguimiento.
Para prevenir y controlar esos posibles riesgos, desde Prosegur se ha instaurado un procedimiento que establece que la IA desarrollada o adquirida por la compañía debe seguir tres pilares y, por lo tanto, definirse como: lícita (con el objetivo de garantizar el respeto de todas las leyes y reglamentos aplicables), ética (para asegurar el cumplimiento de los principios y valores éticos) y robusta (tanto desde el punto de vista técnico como social, ya que los sistemas de IA pueden provocar daños accidentales).
Principios éticos, requisitos clave y metodología
Para la elaboración de esta política, se han tomado como referencia los principios éticos recogidos por la Comisión Europea, con los que se pretende mejorar el bienestar individual y colectivo y que deben estar presentes en todos los proyectos de IA de Prosegur. Estos principios son, por un lado, el respeto a la autonomía humana y la garantía de que se realizará un control sobre los procesos de trabajo de los sistemas de IA para potenciar y complementar las aptitudes de las personas. Otro de los principios será la prevención del daño, con el que se garantiza que los sistemas de IA no perjudicarán a nadie ya que serán lo suficientemente seguros y robustos desde un punto de vista técnico. Asimismo, resaltan el principio de equidad para garantizar una distribución justa e igualitaria de sus beneficios y costes y la posibilidad de oponerse a las decisiones adoptadas por los sistemas de IA. Y, por último, destaca el principio de explicabilidad, que implica que todos los procesos de desarrollo de IA sean transparentes y se comunican de manera clara.
También se han pautado una serie de requisitos para garantizar que se trata de un sistema de Inteligencia Artificial Responsable, aplicables durante todo el ciclo de vida de estos procesos. En este sentido, debe activarse la supervisión humana para garantizar que los procesos sean seguros y se basen en una técnica sólida. Además, la gestión de los datos debe ser sólida para poder prevenir el daño a la privacidad, siendo un sistema transparente y que garantice la inclusión, la diversidad y la igualdad de acceso, además del bienestar ambiental y social. Por último, también será relevante la responsabilidad y rendición de cuentas sobre los sistemas de IA y sus resultados.
Por otro lado, la compañía también ha elaborado una metodología específica para aplicar esta política, diseñada de una manera muy pormenorizada. En primer lugar, el responsable de proyecto expondrá el modelo de negocio y la finalidad de la solución presentada. Posteriormente, el Comité de Inteligencia Artificial supervisará y garantizará el cumplimiento de la solución de IA y definirá los requisitos que se van a evaluar. Contando con la aprobación del comité, el desarrollador de IA diseñará, implementará y probará la solución y, por último, el operador de Inteligencia Artificial ejecutará y supervisará la solución.
De esta manera, se podrá defender el propósito de respetar los valores éticos y morales y garantizar el complimiento de las normas, promoviendo la utilización de la tecnología mediante el desarrollo y la adquisición de soluciones de Inteligencia Artificial.