Imagen de la noticia

Redacción. Para el año 2030 la inteligencia artificial podría generar 13.000 millones de dólares anuales en la economía mundial, una fuente de valor indiscutible para las empresas.

Así lo destacan desde McKinsey & Company, multinacional de consultoría de gestión, según la cual los datos no hacen más que demostrar la creciente importancia que la inteligencia artificial está cobrando, ya que casi el 80 % de los ejecutivos de las compañías que han implementado recientemente procesos de inteligencia artificial perciben valor en su uso.

Sin embargo, en paralelo a este crecimiento, surgen una serie de riesgos asociados que, a simple vista, pueden parecer irrelevantes, pero que pueden acabar incidiendo en el buen funcionamiento de las empresas.

Y es que el uso de inteligencia artificial en las compañías aún está en una fase muy embrionaria, lo que puede dar lugar a una serie de consecuencias, a veces, no deseadas, relacionadas con la privacidad, discriminación, accidentes o manipulación en los sistemas políticos.

Es más, la implementación de la inteligencia artificial puede tener consecuencias desconocidas y mucho más impredecibles, como la puesta en peligro de la seguridad como en el caso, por ejemplo, del fallo de un algoritmo médico o militar.

McKinsey & Company ha realizado el informe Afrontando los riesgos de la inteligencia artificial, en el que se exponen los pasos a seguir para minimizar los riesgos asociados al uso de la inteligencia artificial. Cinco son los puntos en los que se pueden originar esos riesgos:

Problemas en el uso de datos

El uso adecuado de los datos se ha hecho cada vez más difícil, ya que ha incrementado exponencialmente la cantidad de datos no estructurados obtenidos a partir de fuentes como webs, redes sociales, dispositivos móviles e Internet de las cosas (IoT).

Como resultado, es fácil caer en el uso involuntario o en la revelación de información confidencial oculta entre datos anónimos.

Problemas tecnológicos

Diversos problemas en los procesos operativos pueden afectar negativamente al rendimiento de los sistemas de inteligencia artificial generando riesgos.

Problemas de seguridad

Un problema emergente es la utilización de datos aparentemente inofensivos -financieros, de marketing o de salud- que las empresas recopilan por parte de estafadores para crear identidades falsas.

Errores en el establecimiento de modelos

Con unas muestras mal establecidas se pueden generar resultados sesgados que representen erróneamente a las poblaciones analizadas.

Problemas de interacción

La interacción entre personas y máquinas es otro punto de riesgo clave. Entre los más visibles se encuentran los desafíos en los sistemas automatizados de transporte, producción e infraestructura, en los que pueden darse accidentes debido a errores humanos, involuntarios en la mayoría de los casos.

Además de proporcionar una idea de los desafíos futuros, los ejemplos y las categorizaciones anteriores son útiles para identificar y priorizar riesgos y sus principales causas.

Comprendiendo dónde están los riesgos no identificados, hay más posibilidades de minimizar sus efectos. Pero ¿cómo se gestionan esos riesgos? Bajo el ejemplo de dos bancos líderes a nivel mundial, se detallan a continuación tres principios básicos para catalogarlos y eliminarlos:

1. Identificar los riesgos más críticos

Uno de los riesgos identificados más inesperados ha sido la recomendación pobre o sesgada de productos a los consumidores finales, hechos que pueden resultar en la disminución de ventas, pérdida de confianza e, incluso, perjuicios a la reputación, con las consiguientes multas.

Para evitarlo, es esencial lograr que los líderes de las principales prácticas de la compañía -negocio, IT, seguridad y gestión de riesgos- identifiquen de forma conjunta riesgos actuales y posibles situaciones problemáticas ligadas al uso de la inteligencia artificial.

2. Instaurar controles generales estrictos

Es crucial la aplicación de controles en toda la compañía para guiar el desarrollo y uso de los sistemas de inteligencia artificial, asegurar una supervisión adecuada y poner en práctica procedimientos y planes de contingencia sólidos.

Sin esfuerzos colectivos, aumentan las probabilidades de que los factores de riesgo se amplifiquen. Todos los empleados deben recibir comunicaciones completas sobre dónde se está utilizando la inteligencia artificial y qué pasos está tomando la compañía para garantizar decisiones justas y para proteger los datos de los clientes.

3. Reforzar controles específicos dependiendo de la naturaleza del riesgo

Por importantes que sean los controles la empresa, rara vez son suficientes para contrarrestar el conjunto de riesgos posibles. A menudo es necesario más rigor, y los controles requeridos dependerán de factores tales como la complejidad de los algoritmos, la naturaleza de la interacción persona-máquina (o máquina-máquina) y hasta qué punto la inteligencia artificial está incorporada a los procesos de negocio.

También son necesarios controles específicos de datos y análisis -incluidos los requisitos de transparencia- así como la monitorización y el análisis de rendimiento para detectar posibles sesgos.

En resumen, desde McKinsey & Company señalan que aún queda mucho por aprender sobre los riesgos potenciales que enfrentan las organizaciones, los individuos y la sociedad cuando se trata de inteligencia artificial.

Hasta ahora, la opinión pública y la regulación han sido relativamente moderadas, pero es probable que esto cambie si las organizaciones continúan fracasando en la implementación de estos procesos. A medida que aumentan los costes de los riesgos asociados con la inteligencia artificial, tanto la capacidad para evaluar esos riesgos como la implicación de los trabajadores en todos los niveles de la implementación de controles se convertirá en una nueva ventaja competitiva.

Las organizaciones que fomentan estas capacidades estarán mejor posicionadas para satisfacer a sus clientes y a la sociedad de manera efectiva, para evitar problemas éticos, comerciales, reputacionales y regulatorios y para evitar una potencial crisis existencial que podría poner a la organización en una situación complicada.

Utilizamos cookies propias y de terceros para posibilitar y mejorar su experiencia de navegación por nuestra web. Si continua navegando, consideramos que acepta su uso.