Editor en La Ecuación Digital. Consultor de Innovación y Estrategia…
Un nuevo estudio del Institute for Business Value (IBV) de IBM ha revelado un cambio radical en los roles de los responsables de liderar y llevar a cabo la ética de la Inteligencia Artificial (IA) en las organizaciones. Cuando se les preguntó qué rol es el principal responsable de la ética de la IA, el 64% de los encuestados en Europa señaló a un ejecutivo no técnico, por ejemplo, un CEO, como el principal responsable de la ética de la IA.
El estudio global[1] también indica que, a pesar de que existe un fuerte interés por avanzar hacia una IA confiable, incluyendo un mejor desempeño en comparación con la competencia en materia de sostenibilidad, responsabilidad social y diversidad e inclusión, sigue existiendo una brecha entre la intención de los ejecutivos y las acciones llevadas a cabo. En concreto, el estudio revela que:
Los ejecutivos de las empresas se consideran como el motor impulsor de la ética de la IA
A nivel europeo, los CEO (30%), así como los miembros de la Junta Directiva (10%), los consejeros generales (5%), los responsables de privacidad (6%) y los responsables de riesgo y compliance (6%) son considerados como los máximos responsables de la ética en la IA, según los encuestados.
Mientras que el 64% de los encuestados en Europa cita al CEO o a otro ejecutivo de primer nivel como un factor de gran influencia en la estrategia ética de su organización, más de la mitad cita a los miembros de la Junta Directiva (56%) y a los accionistas (37%).
Construir una IA confiable se percibe como un diferenciador estratégico y las organizaciones empiezan a implementar mecanismos de ética en la IA
Casi tres cuartas partes de los altos ejecutivos encuestados en Europa este año coinciden en que la ética en la IA es importante para sus organizaciones.
Al mismo tiempo, el 73% de los encuestados en Europa cree que la ética es una fuente de diferenciación competitiva, y más de la mitad (55%) que ve la IA y la ética de la IA como algo importante indica que sus organizaciones superan a su competencia en sostenibilidad, responsabilidad social y diversidad e inclusión.
Muchas empresas han empezado a hacer progresos. De hecho, más de la mitad de los encuestados en Europa asegura que sus organizaciones han empezado a incorporar la ética de la IA en su enfoque actual de la ética empresarial.
Más del 42% de los encuestados en Europa dice que sus organizaciones han creado mecanismos éticos específicos para IA, como un marco de evaluación de riesgos de proyectos de IA y un proceso de auditoría/revisión.
Garantizar que los principios éticos están integrados en las soluciones de IA es una necesidad urgente para las empresas, pero el progreso todavía es demasiado lento
A nivel global, de acuerdo con los encuestados, ahora hay muchos más CEO (79%) preparados para incorporar la ética en sus prácticas de IA —en 2018 apenas llegaban al 21%— y más de la mitad de las empresas que han participado en el estudio ha respaldado públicamente los principios comunes de la ética de la IA.
Sin embargo, menos de una cuarta parte de las organizaciones encuestadas a nivel global ha empezado a operar la ética de la IA, y menos del 20% de los encuestados estuvo de acuerdo en que las prácticas y acciones de su empresa coinciden (o superan) sus principios y valores establecidos.
El 68% de las empresas encuestadas a nivel global reconoce que tener un lugar de trabajo diverso e inclusivo es importante para mitigar el sesgo en la IA, pero los resultados indican que los equipos de IA siguen siendo sustancialmente menos diversos que las plantillas de sus organizaciones: 5,5 veces menos inclusivos para las mujeres, cuatro veces menos inclusivos para las personas LGBT+ y 1,7 veces menos inclusivos en términos raciales.
Ha llegado el momento de que las empresas actúen. Los datos del estudio sugieren que aquellas organizaciones que implementan una amplia estrategia de ética de IA entrelazada en todas las unidades de negocio pueden tener una ventaja competitiva de cara al futuro. En este sentido, el estudio ofrece una serie de recomendaciones para los responsables de las compañías, entre las que se encuentran:
- Adoptar un enfoque multifuncional y colaborativo: la IA ética requiere de un enfoque integral y un conjunto holístico de habilidades entre todas las partes interesadas que participan en el proceso de ética de la IA. Los altos ejecutivos, los diseñadores, los científicos dedicados al comportamiento, los científicos de datos y los ingenieros de IA tienen cada uno un papel distinto que desempeñar en el camino hacia la IA confiable.
- Establecer una gobernanza tanto organizativa como del ciclo de vida de la IA para hacer operativa la disciplina de la ética de la IA: adoptar un enfoque holístico para incentivar, gestionar y gobernar soluciones de IA en todo el ciclo de vida de esta tecnología, desde establecer la cultura adecuada para alimentar la IA de forma responsable, hasta las prácticas y políticas de los productos.
- Ampliar la colaboración más allá de la propia organización: identificar e implicar a socios tecnológicos clave centrados en la IA, académicos, startups y otros partners del ecosistema para establecer una «interoperabilidad ética».