Los altos directivos son apuntados como responsables de la ética de la inteligencia artificial

Redacción. Un estudio realizado a nivel global por el Institute for Business Value (IBV) de IBM ha puesto de relieve un cambio radical en los roles de los responsables de liderar y llevar a cabo la ética de la inteligencia artificial (IA) en las organizaciones.

Cuando se preguntó a los participantes qué rol es el principal responsable de la ética de la IA, el 64 % de los encuestados en Europa señaló a un ejecutivo no técnico, por ejemplo, un CEO, como el principal responsable de la ética de la IA.

El estudio también revela que, a pesar de que existe un fuerte interés por avanzar hacia una IA confiable, incluyendo un mejor desempeño en comparación con la competencia en materia de sostenibilidad, responsabilidad social y diversidad e inclusión, sigue existiendo una brecha entre la intención de los ejecutivos y las acciones llevadas a cabo.

En concreto, el estudio apunta que los ejecutivos de las empresas se consideran como el motor impulsor de la ética de la IA.

A nivel europeo, los CEO (30 %), así como los miembros de la junta directiva (10 %), los consejeros generales (5 %), los responsables de privacidad (6 %) y los responsables de riesgo y compliance (6 %) son considerados como los máximos responsables de la ética en la IA, según los encuestados.

Mientras que el 64 % de los encuestados en Europa cita al CEO o a otro ejecutivo de primer nivel como un factor de gran influencia en la estrategia ética de su organización, más de la mitad cita a los miembros de la junta directiva (56 %) y a los accionistas (37 %).

Construir una IA confiable se percibe como un diferenciador estratégico

Casi tres cuartas partes de los altos ejecutivos encuestados en Europa este año coinciden en que la ética en la IA es importante para sus organizaciones.

Al mismo tiempo, el 73 % de los encuestados en Europa cree que la ética es una fuente de diferenciación competitiva, y el 55 % que ve la IA y la ética de la IA como algo importante, indica que sus organizaciones superan a su competencia en sostenibilidad, responsabilidad social y diversidad e inclusión.

Más de la mitad de los encuestados en Europa asegura que sus organizaciones han empezado a incorporar la ética de la IA en su enfoque actual de la ética empresarial.

El 42% de los encuestados en Europa dice que sus organizaciones han creado mecanismos éticos específicos para la IA, como un marco de evaluación de riesgos de proyectos de IA y un proceso de auditoría/revisión.

Garantizar principios éticos en la IA, necesidad urgente

A nivel global, ahora hay muchos más CEO preparados para incorporar la ética en sus prácticas de IA, un 79 %, cuando en 2018 apenas llegaban al 21 %, y más de la mitad de las empresas que han participado en el estudio ha respaldado públicamente los principios comunes de la ética de la IA.

Sin embargo, menos de una cuarta parte de las organizaciones encuestadas a nivel global ha empezado a operar la ética de la IA, y menos del 20 % de los encuestados estuvo de acuerdo en que las prácticas y acciones de su empresa coinciden -o superan- sus principios y valores establecidos.

Equipos menos diversos

El 68 % de las empresas encuestadas a nivel global reconoce que tener un lugar de trabajo diverso e inclusivo es importante para mitigar el sesgo en la IA, pero los resultados indican que los equipos de IA siguen siendo sustancialmente menos diversos que las plantillas de sus organizaciones.

En concreto, los equipos de IA son 5,5 veces menos inclusivos para las mujeres, cuatro veces menos inclusivos para las personas LGBT+ y 1,7 veces menos inclusivos en términos raciales.

Ventaja competitiva

Los datos del estudio sugieren que aquellas organizaciones que implementan una amplia estrategia de ética de IA entrelazada en todas las unidades de negocio pueden tener una ventaja competitiva de cara al futuro.

En este sentido, el estudio ofrece una serie de recomendaciones para los responsables de las compañías, entre las que se encuentran adoptar un enfoque multifuncional y colaborativo, establecer una gobernanza tanto organizativa como del ciclo de vida de la IA para hacer operativa la disciplina de la ética de la IA y ampliar la colaboración más allá de la propia organización, identificando e implicando a socios tecnológicos clave centrados en la IA.

Utilizamos cookies propias y de terceros para posibilitar y mejorar su experiencia de navegación por nuestra web. Si continua navegando, consideramos que acepta su uso.