Por qué las empresas necesitan la explicabilidad de la inteligencia artificial

0
3
Por qué las empresas necesitan la explicabilidad de la inteligencia artificial

La creación de programas de inteligencia artificial exitosos no termina con la construcción del sistema de IA correcto. Estos programas también deben integrarse en una organización, y las partes interesadas, en particular los empleados y los clientes, deben confiar en que el programa de IA es preciso y confiable.

Este es el caso de la construcción de la explicabilidad de la inteligencia artificial en toda la empresa, según un nuevo informe de investigación de Ida Someh, Barbara Wixom y Cynthia Beath del Centro de Investigación de Sistemas de Información del MIT. Los investigadores definen la explicabilidad de la inteligencia artificial como “la capacidad de gestionar iniciativas de IA de manera que garantice que los modelos generen valor, cumplan con los requisitos, sean representativos y confiables”.

Leer el informe

Los investigadores identificaron cuatro características de los programas de inteligencia artificial que pueden dificultar que las partes interesadas confíen en ellos y las formas en que se pueden superar:

1. Valor no probado. Debido a que la inteligencia artificial aún es relativamente nueva, no existe una lista extensa de casos de uso probados. Los líderes a menudo no están seguros de si su empresa verá los beneficios de los programas de IA y cómo lo hará.

Para hacer frente a esto, las empresas necesitan crear prácticas de formulación de valoresque ayudan a las personas a corroborar cómo la IA puede ser una buena inversión en formas atractivas para una variedad de partes interesadas.

2. Opacidad del modelo. La inteligencia artificial se basa en matemáticas y estadísticas complejas, por lo que puede ser difícil saber si un modelo produce resultados precisos y cumple con los requisitos y es ético.

Para abordar esto, las empresas deben desarrollar prácticas de seguimiento de decisiones, que ayudan a los equipos de inteligencia artificial a desentrañar las matemáticas y los cálculos detrás de los modelos y transmitir cómo funcionan a las personas que los usan. Estas prácticas pueden incluir el uso de elementos visuales como diagramas y gráficos.

Artículos relacionados

3. Deriva del modelo. Un modelo de IA producirá resultados sesgados si los datos utilizados para entrenarlo están sesgados. Y los modelos pueden “desviarse” con el tiempo, lo que significa que pueden comenzar a producir resultados inexactos a medida que el mundo cambia o se incluyen datos incorrectos en el modelo.

Prácticas de corrección de sesgos puede ayudar a los equipos de IA a abordar la deriva y el sesgo del modelo al exponer cómo los modelos toman decisiones. Si un equipo detecta un patrón inusual, las partes interesadas pueden revisarlo, por ejemplo.

4. Aplicación sin sentido. Los resultados del modelo de IA no son definitivos. Tratarlos como tales puede ser arriesgado, especialmente si se aplican a nuevos casos o contextos.

Las empresas pueden remediar esto creando prácticas de establecimiento de límitesque brindan orientación para aplicar aplicaciones de IA de manera consciente y evitar resultados inesperados o consecuencias no deseadas.

La explicabilidad de la inteligencia artificial es un campo emergente. Los equipos que trabajan en proyectos de IA en su mayoría están “creando el libro de jugadas sobre la marcha”, escriben los investigadores. Las organizaciones necesitan desarrollar y compartir buenas prácticas de manera proactiva.

Los investigadores recomendaron comenzar por: identificar unidades y organizaciones que ya están creando explicaciones efectivas de IA; identificar prácticas que los propios equipos de proyectos de IA de la organización ya han adoptado; y continuar probando las prácticas más prometedoras e institucionalizando las mejores.

Lea a continuación: 5 herramientas de monetización de datos que ayudan a las iniciativas de IA

LEAVE A REPLY

Please enter your comment!
Please enter your name here