Cómo identificar los riesgos asociados a la Inteligencia Artificial

Para 2030, la Inteligencia Artificial generará un valor de 13 miles de millones de dólares a la economía mundial, que irá acompañado de un aumento exponencial de los riesgos para las compañías, de acuerdo con un estudio de McKinsey.

Publicado el 08 Oct 2019

Cómo identificar los riesgos asociados a la Inteligencia Artificial

McKinsey & Company ha realizado el informe “Afrontando los riesgos de la inteligencia artificial” en el que se exponen los pasos a seguir para minimizar los riesgos asociados al uso de la Inteligencia Artificial (IA). Para el año 2030, la IA podría generar 13 miles de millones de dólares anuales en la economía mundial, una fuente de valor indiscutible para las empresas. Los datos no hacen más que demostrar la creciente importancia que la IA está cobrando, ya que casi el 80% de los ejecutivos de las compañías que han implementado recientemente procesos de IA perciben valor en su uso.

Sin embargo, en paralelo a este crecimiento, surgen una serie de riesgos asociados que, a simple vista, pueden parecer irrelevantes pero que pueden acabar incidiendo en el buen funcionamiento de las empresas. Y es que el uso de IA en las compañías aún está en una fase muy embrionaria, lo que puede dar lugar a una serie de consecuencias, a veces, no deseadas, relacionadas con la privacidad, discriminación, accidentes o manipulación en los sistemas políticos. Es más, la implementación de la IA puede tener consecuencias desconocidas y mucho más impredecibles, como la puesta en peligro de la seguridad como en el caso, por ejemplo, del fallo de un algoritmo médico o militar. Por ello, el informe describe cinco puntos en los que se pueden originar riesgos con el fin de que las compañías estén preparadas para su prevención:

• Problemas en el uso de datos: el uso adecuado de los datos se ha hecho cada vez más difícil ya que ha incrementado exponencialmente la cantidad de datos no estructurados obtenidos a partir de fuentes como webs, redes sociales, dispositivos móviles e Internet de las cosas (IoT). Como resultado, es fácil caer en el uso involuntario o en la revelación de información confidencial oculta entre datos anónimos.

• Problemas tecnológicos: diversos problemas en los procesos operativos pueden afectar negativamente al rendimiento de los sistemas de IA generando riesgos.

• Problemas de seguridad: un problema emergente es la utilización de datos aparentemente inofensivos -financieros, de marketing o de salud- que las empresas recopilan por parte de estafadores para crear identidades falsas.

• Errores en el establecimiento de modelos: con unas muestras mal establecidas se pueden generar resultados sesgados que representen erróneamente a las poblaciones analizadas.

• Problemas de interacción: la interacción entre personas y máquinas es otro punto de riesgo clave. Entre los más visibles, se encuentran los desafíos en los sistemas automatizados de transporte, producción e infraestructura, en los que pueden darse accidentes debido a errores humanos, -involuntarios en la mayoría de los casos-.

Además de proporcionar una idea de los desafíos futuros, los ejemplos y las categorizaciones anteriores son útiles para identificar y priorizar riesgos y sus principales causas. Comprendiendo dónde están los riesgos no identificados, hay más posibilidades de minimizar sus efectos. Pero ¿cómo se gestionan esos riesgos? Bajo el ejemplo de dos bancos líderes a nivel mundial, se detallan a continuación tres principios básicos para catalogarlos y eliminarlos:

1. Identificar los riesgos más críticos

Uno de los riesgos identificados más inesperados ha sido la recomendación pobre o sesgada de productos a los consumidores finales, hechos que pueden resultar en la disminución de ventas, pérdida de confianza e incluso perjuicios a la reputación, con las consiguientes multas. Para evitarlo, es esencial lograr que los líderes de las principales prácticas de la compañía -negocio, IT, seguridad y gestión de riesgos- identifiquen de forma conjunta riesgos actuales y posibles situaciones problemáticas ligadas al uso de la IA.

2. Instaurar controles generales estrictos

Es crucial la aplicación de controles en toda la compañía para guiar el desarrollo y uso de los sistemas de IA, asegurar una supervisión adecuada y poner en práctica procedimientos y planes de contingencia sólidos. Sin esfuerzos colectivos, aumentan las probabilidades de que los factores de riesgo se amplifiquen. Todos los empleados deben recibir comunicaciones completas sobre dónde se está utilizando la IA y qué pasos está tomando la compañía para garantizar decisiones justas y para proteger los datos de los clientes.

3. Reforzar controles específicos dependiendo de la naturaleza del riesgo

Por importantes que sean los controles la empresa, rara vez son suficientes para contrarrestar el conjunto de riesgos posibles. A menudo es necesario más rigor, y los controles requeridos dependerán de factores tales como la complejidad de los algoritmos, la naturaleza de la interacción persona-máquina (o máquina-máquina) y hasta qué punto la IA está incorporada a los procesos de negocio. También son necesarios controles específicos de datos y análisis (incluidos los requisitos de transparencia) así como la monitorización y el análisis de rendimiento para detectar posibles sesgos.

En resumen, aún queda mucho por aprender sobre los riesgos potenciales que enfrentan las organizaciones, los individuos y la sociedad cuando se trata de IA. Hasta ahora, la opinión pública y la regulación han sido relativamente moderadas, pero es probable que esto cambie si las organizaciones continúan fracasando en la implementación de estos procesos. A medida que aumentan los costes de los riesgos asociados con la IA, tanto la capacidad para evaluar esos riesgos como la implicación de los trabajadores en todos los niveles de la implementación de controles se convertirá en una nueva ventaja competitiva. Las organizaciones que fomentan estas capacidades estarán mejor posicionadas para satisfacer a sus clientes y a la sociedad de manera efectiva; para evitar problemas éticos, comerciales, reputacionales y regulatorios; y para evitar una potencial crisis existencial que podría poner a la organización en una situación complicada.

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

D
Redacción Data Center Market

Artículos relacionados

Artículo 1 de 4