fbpx
Get In Touch
1201 3rd Avenue Seattle, WA 98101, US
(HQ) Av. Punto Sur 31, Tlajomulco de Zúñiga, Jal 45050, MX
Carrera 11B # 99 - 25, Btá, 110221, CO
Let's talk
hello@inmediatum.com
Ph: +1 (650) 603 0883
Sales attention M - F 9am - 5pm (CT)
Get support
Careers
Endless inspiration and meaningful work
See open positions
Back

Riesgos y remedios para la inteligencia artificial.

No se puede negar que la inteligencia artificial (IA) y las tecnologías de machine learning darán forma a nuestro futuro. Los sistemas avanzados de IA pueden resolver los problemas comerciales más complejos y generar importantes beneficios económicos para las organizaciones. Pero combinar estos sistemas con una mala interpretación de la IA, también conocida como explicabilidad, puede crear una receta para el desastre.

Los usuarios finales a menudo no tienen idea de cómo funcionan los sistemas complejos de IA, por lo que comúnmente se los ve como cajas negras. Toman información y parámetros como entradas, realizan cálculos sobre ellos de forma desconocida y generan predicciones, recomendaciones y clasificaciones que no siempre tienen sentido para los usuarios finales. El fenómeno de la caja negra puede dar lugar a problemas como expectativas poco realistas de las capacidades de IA, toma de decisiones mal informada o falta de confianza general en los sistemas de IA. Estos problemas pueden poner en peligro la adopción en una organización y causar que las implementaciones de IA fallen por completo.

Una encuesta reciente de IDC muestra que la mayoría de las organizaciones globales reportan algunas fallas entre sus proyectos de IA (una cuarta parte de ellas reporta una tasa de fallas de hasta el 50 por ciento), citando como factores contribuyentes cosas como el fenómeno de la caja negra y los desafíos de interpretación.

A pesar de estas fallas, muchas organizaciones continúan confiando en la IA para impulsar las decisiones comerciales con la creencia de que puede superar las capacidades humanas. Los ejemplos incluyen la predicción anticipada de fallas de activos y equipos, la optimización de las cadenas de suministro y el inventario, y la detección de actividades fraudulentas. Las organizaciones hacen grandes apuestas en la IA para ayudar a resolver problemas comerciales. Lo que los ejecutivos no se dan cuenta es que puede afectar negativamente a su negocio y a los usuarios finales cuando los sistemas de IA no son interpretables.

Problemas que la interpretación de la IA puede ayudar a abordar

La interpretación proporciona el razonamiento detrás de las predicciones o recomendaciones generadas por IA para permitir a los usuarios discernir si la IA es “correcta por las razones correctas”. Bajo este paraguas, la interpretación proporciona beneficios y reduce el riesgo de falla causado por el fenómeno de la caja negra en tres frentes:

  • La interpretación arroja luz sobre el funcionamiento interno de los sistemas de IA de caja negra.
  • La interpretación aumenta las predicciones y recomendaciones ya proporcionadas, explicando información adicional.
  • La interpretación ayuda a identificar posibles problemas con la forma en que se diseñó el sistema de IA.

Desafíos para la interpretación de la IA

El primer desafío proviene de los posibles conflictos entre la precisión predictiva y descriptiva dentro de las soluciones habilitadas para IA. Mejorar la precisión descriptiva (interpretación) puede tener lugar a expensas de la precisión predictiva y, por lo tanto, del rendimiento del modelo.

Los sistemas simples de IA que usan regresión lineal o modelos basados ​​en árboles son más interpretables y comprensibles que sus contrapartes de aprendizaje profundo más complicados, pero los sistemas más simples tienden a proporcionar una peor precisión predictiva. Esto a menudo conduce a una compensación en el diseño del sistema de IA. Pero tanto la interpretación como la precisión predictiva se pueden lograr utilizando enfoques basados ​​en modelos y post-hoc.

Este articulo puede interesarle Pasos para el éxito en 2022: Gestión de inventario de construcción

Carla Serrato
Carla Serrato
Especialista en ciencias sociales y de comportamiento. Carla no solo asesora a nuestro departamento de UX en INMEDIATUM sino que su investigación permite optimizar nuestros algoritmos de inteligencia artificial como para la prevención de riesgo crediticio, genera mejor adherencia a tratamientos médicos, reconocimiento facial para identificar rasgos de la personalidad entre otros.

We use cookies to give you the best experience. Cookie Policy