Estás leyendo
La responsabilidad de la ética de la Inteligencia Artificial recae en los altos ejecutivos

La responsabilidad de la ética de la Inteligencia Artificial recae en los altos ejecutivos

  • El 64% de los encuestados en Europa señala a los ejecutivos no técnicos como los principales responsables de implementar la ética de la IA.
  • El 79% de los CEO encuestados a nivel global está preparado para implementar prácticas éticas de IA, pero menos de una cuarta parte de las organizaciones ha actuado al respecto.
Inteligencia Artificial Ética

Un nuevo estudio del Institute for Business Value (IBV) de ha revelado un cambio radical en los roles de los responsables de liderar y llevar a cabo la   de la (IA) en las organizaciones. Cuando se les preguntó qué rol es el principal responsable de la ética de la IA, el 64% de los encuestados en Europa señaló a un ejecutivo no técnico, por ejemplo, un , como el principal responsable de la ética de la IA.

El estudio global[1] también indica que, a pesar de que existe un fuerte interés por  avanzar hacia una IA confiable, incluyendo un mejor desempeño en comparación con la competencia en materia de  sostenibilidad, responsabilidad social y diversidad e inclusión, sigue existiendo una brecha entre la intención de los ejecutivos y las acciones llevadas a cabo. En concreto, el estudio revela que:

Los ejecutivos de las empresas se consideran como el motor impulsor de la ética de la IA

A nivel europeo, los CEO (30%), así como los miembros de la Junta Directiva (10%), los consejeros generales (5%), los responsables de privacidad (6%) y los responsables de riesgo y compliance (6%) son considerados como los máximos responsables de la ética en la IA, según los encuestados.

Mientras que el 64% de los encuestados en Europa cita al CEO o a otro ejecutivo de primer nivel como un factor de gran influencia en la estrategia ética de su organización, más de la mitad cita a los miembros de la Junta Directiva (56%) y a los accionistas (37%).

Construir una IA confiable se percibe como un diferenciador estratégico y las organizaciones empiezan a implementar mecanismos de ética en la IA

Casi tres cuartas partes de los altos ejecutivos encuestados en Europa este año coinciden en que la ética en la IA es importante para sus organizaciones.

Al mismo tiempo, el 73% de los encuestados en Europa cree que la ética es una fuente de diferenciación competitiva, y más de la mitad (55%) que ve la IA y la ética de la IA como algo importante indica que sus organizaciones superan a su competencia en sostenibilidad, responsabilidad social y diversidad e inclusión.

Muchas empresas han empezado a hacer progresos. De hecho, más de la mitad de los encuestados en Europa  asegura que sus organizaciones han empezado a incorporar la ética de la IA en su enfoque actual de la ética empresarial.

Más del 42% de los encuestados en Europa dice que sus organizaciones han creado mecanismos éticos específicos para IA, como un marco de evaluación de riesgos de proyectos de IA y un proceso de auditoría/revisión.

Te puede interesar
Centros de datos

Garantizar que los principios éticos están integrados en las soluciones de IA es una necesidad urgente para las empresas, pero el progreso todavía es demasiado lento

A nivel global, de acuerdo con los encuestados, ahora hay muchos más CEO (79%) preparados para incorporar la ética en sus prácticas de IA —en 2018 apenas llegaban al 21%— y más de la mitad de las empresas que han participado en el estudio ha respaldado públicamente los principios comunes de la ética de la IA.

Sin embargo, menos de una cuarta parte de las organizaciones encuestadas a nivel global ha empezado a operar la ética de la IA, y menos del 20% de los encuestados estuvo de acuerdo en que las prácticas y acciones de su empresa coinciden (o superan) sus principios y valores establecidos.

El 68% de las empresas encuestadas a nivel global reconoce que tener un lugar de trabajo diverso e inclusivo es importante para mitigar el sesgo en la IA, pero los resultados indican que los equipos de IA siguen siendo sustancialmente menos diversos que las plantillas de sus organizaciones: 5,5 veces menos inclusivos para las mujeres, cuatro veces menos inclusivos para las personas LGBT+ y 1,7 veces menos inclusivos en términos raciales.

A medida que muchas empresas utilizan hoy en día algoritmos de IA en su negocio, se enfrentan potencialmente a crecientes demandas internas y externas para diseñar estos algoritmos de forma que sean justos, seguros y dignos de confianza. Sin embargo, ha habido poco progreso dentro de la industria en la incorporación de la ética de la IA en sus prácticas. Los resultados de nuestro estudio del IBV demuestran que la creación de una IA confiable es un imperativo empresarial y una expectativa de la sociedad, no solo una cuestión de compliance. En este sentido, las empresas pueden implementar un modelo de gobernanza e integrar los principios éticos en todo el ciclo de vida de la IA.Jesús Mantas, Global Managing Partner de IBM Consulting.

Ha llegado el momento de que las empresas actúen. Los datos del estudio sugieren que aquellas organizaciones que implementan una amplia estrategia de ética de IA entrelazada en todas las unidades de negocio pueden tener una ventaja competitiva de cara al futuro. En este sentido, el estudio ofrece una serie de recomendaciones para los responsables de las compañías, entre las que se encuentran:

  • Adoptar un enfoque multifuncional y colaborativo: la IA ética requiere de un enfoque integral y un conjunto holístico de habilidades entre todas las partes interesadas que participan en el proceso de ética de la IA. Los altos ejecutivos, los diseñadores, los científicos dedicados al comportamiento, los científicos de datos y los ingenieros de IA tienen cada uno un papel distinto que desempeñar en el camino hacia la IA confiable.
  • Establecer una gobernanza tanto organizativa como del ciclo de vida de la IA para hacer operativa la disciplina de la ética de la IA: adoptar un enfoque holístico para incentivar, gestionar y gobernar soluciones de IA en todo el ciclo de vida de esta tecnología, desde establecer la cultura adecuada para alimentar la IA de forma responsable, hasta las prácticas y políticas de los productos.
  • Ampliar la colaboración más allá de la propia organización: identificar e implicar a socios tecnológicos clave centrados en la IA, académicos, startups y otros partners del ecosistema para establecer una «interoperabilidad ética».
Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad