Ética de la IA: una descripción general | e-SEMANA

0
3
enterprise IT

La inteligencia artificial ha progresado hasta el punto en que las máquinas son capaces de realizar tareas que las personas alguna vez pensaron que solo podían hacer los humanos. Este aumento en el poder de la IA destaca la importancia de la ética en la IA: debemos usar esta poderosa tecnología de manera responsable.

Por ejemplo, la inteligencia artificial moderna es capaz de comprender y crear arte, mantener conversaciones inteligentes, identificar objetos a simple vista, aprender de experiencias pasadas y tomar decisiones autónomas.

Las organizaciones han implementado IA para realizar una amplia gama de tareas. AI crea recomendaciones personalizadas para los compradores en línea, determina el contenido que ven los usuarios de las redes sociales, toma decisiones de atención médica, determina qué candidatos contratar, conduce vehículos, reconoce rostros y mucho más.

Dadas las innumerables oportunidades comerciales que brinda esta nueva tecnología, el mercado global de tecnologías de IA se ha disparado durante la última década y continúa creciendo. Gartner estima que los clientes de todo el mundo gastarán 65.200 millones de dólares en software de IA en 2022, un aumento del 21,3 % con respecto al año anterior.

Si bien la tecnología de IA es nueva y emocionante y tiene el potencial de beneficiar tanto a las empresas como a la humanidad en su conjunto, también genera muchos desafíos éticos únicos.

Ver también: Mejor software de IA

Ejemplos de IA poco ética

Las noticias no tienen escasez de ejemplos de IA poco ética.

En uno de los casos más conocidos, Amazon utilizó una herramienta de contratación de IA que discriminaba a las mujeres. El software de IA fue diseñado para revisar los currículums de los posibles candidatos y elegir a los que estaban más calificados para el puesto. Sin embargo, dado que la IA había aprendido de un conjunto de datos sesgados que incluía principalmente currículos masculinos, era mucho menos probable que seleccionara candidatas. Eventualmente, Amazon dejó de usar el programa.

En otro ejemplo, un algoritmo ampliamente utilizado para determinar la necesidad de atención médica evaluaba sistemáticamente la necesidad de atención de los pacientes negros como inferior a las necesidades de los pacientes blancos. Eso fue problemático porque los hospitales y las compañías de seguros usaban esta evaluación de riesgos para determinar qué pacientes tendrían acceso a un programa especial de administración de atención de alto riesgo. En este caso, el problema ocurrió porque el modelo de IA usó los costos de atención médica como un indicador de la necesidad de atención médica, sin tener en cuenta las disparidades en la forma en que las poblaciones blanca y negra acceden a la atención médica.

Pero la discriminación no es el único problema potencial con los sistemas de IA. En uno de los primeros ejemplos de IA problemática, Microsoft lanzó un chatbot de Twitter llamado Tay que comenzó a enviar tweets racistas en menos de 24 horas.

Y una serie de otras historias menos publicadas han planteado preocupaciones sobre proyectos de IA que parecían transfóbicos, que violaban la privacidad de las personas o, en el caso de vehículos autónomos e investigación de armas, ponían en riesgo vidas humanas.

Desafíos de la ética de la IA

A pesar de las muchas noticias que destacan las preocupaciones relacionadas con la ética de la IA, la mayoría de las organizaciones aún no han recibido el mensaje de que deben considerar estos problemas. La Encuesta ejecutiva de liderazgo de datos e inteligencia artificial de NewVantage Partners 2022 encontró que mientras el 91 por ciento de las organizaciones están invirtiendo en iniciativas de inteligencia artificial, menos de la mitad (44 por ciento) dijo que tenían políticas y prácticas de ética bien establecidas. Además, solo el 22 por ciento dijo que la industria ha hecho lo suficiente para abordar los datos y la ética de la IA.

Entonces, ¿cuáles son los desafíos clave que las organizaciones deberían abordar?

Parcialidad

Como ya hemos visto, quizás el mayor desafío para construir una IA ética es el sesgo de la IA. Además de los casos ya mencionados, la herramienta de justicia penal de IA conocida como COMPAS (Perfil de gestión de delincuentes correccionales para sanciones alternativas) es un ejemplo notorio. La herramienta fue diseñada para predecir el riesgo de un acusado de cometer otro delito en el futuro. Los funcionarios de los tribunales y de la libertad condicional y la libertad condicional luego usaron esa información para determinar las sentencias penales apropiadas o quién obtiene la libertad condicional o la libertad condicional.

Sin embargo, COMPAS tendía a discriminar a los negros. Según ProPublica, “incluso cuando se controlan los delitos anteriores, la reincidencia futura, la edad y el género, los acusados ​​negros tenían un 45 % más de probabilidades de recibir puntuaciones de riesgo más altas que los acusados ​​blancos”. En realidad, los defensores negros y blancos reinciden aproximadamente en la misma proporción: 59 por ciento. Pero los acusados ​​negros recibían sentencias mucho más largas y era menos probable que recibieran libertad condicional o libertad condicional debido al sesgo de AI.

Debido a que los humanos crearon la IA y la IA se basa en los datos proporcionados por los humanos, puede ser inevitable que algún sesgo humano se abra paso en los sistemas de IA. Sin embargo, hay algunos pasos obvios que se deben tomar para mitigar el sesgo de la IA.

Y aunque situaciones como la discriminación de COMPAS son horribles, algunos argumentan que, en general, la IA es menos propensa a los sesgos que los humanos. Quedan preguntas difíciles sobre hasta qué punto se debe eliminar el sesgo antes de que se pueda usar una IA para tomar decisiones. ¿Es suficiente crear un sistema de IA que esté menos sesgado que los humanos, o deberíamos exigir que el sistema esté más cerca de no tener sesgos?

Privacidad de datos

Otro gran problema en la ética de la IA es la privacidad y vigilancia de los datos. Con el auge de Internet y las tecnologías digitales, las personas ahora dejan un rastro de datos a los que pueden acceder las corporaciones y los gobiernos.

En muchos casos, las empresas de publicidad y redes sociales han recopilado y vendido datos sin el consentimiento de los consumidores. Incluso cuando se hace legalmente, esta recopilación y uso de datos personales es éticamente dudoso. A menudo, las personas desconocen hasta qué punto esto está sucediendo y probablemente les preocuparía si estuvieran mejor informados.

La IA exacerba todos estos problemas porque facilita la recopilación de datos personales y su uso para manipular a las personas. En algunos casos, esa manipulación es bastante benigna, como dirigir a los espectadores a películas y programas de televisión que podrían gustarles porque han visto algo similar. Pero las líneas se vuelven más borrosas cuando la IA usa datos personales para manipular a los clientes para que compren productos. Y en otros casos, los algoritmos podrían estar usando datos personales para influir en las creencias políticas de las personas o incluso convencerlas de creer cosas que no son ciertas.

Además, el software de inteligencia artificial de reconocimiento facial permite recopilar información extensa sobre las personas al mirar fotos de ellas. Los gobiernos están luchando con la cuestión de cuándo las personas tienen derecho a esperar privacidad cuando están en público. Algunos países han decidido que es aceptable realizar un reconocimiento facial generalizado, mientras que otros lo prohíben en todos los casos. La mayoría dibuja las líneas en algún lugar en el medio.

Las preocupaciones sobre privacidad y vigilancia presentan desafíos éticos obvios para los que no existe una solución fácil. Como mínimo, las organizaciones deben asegurarse de cumplir con toda la legislación pertinente y de mantener los estándares de la industria. Pero los líderes también deben asegurarse de que están haciendo algo de introspección y considerando si podrían estar violando la privacidad de las personas con sus herramientas de IA.

Transparencia

Como ya se mencionó, los sistemas de IA a menudo ayudan a tomar decisiones importantes que afectan en gran medida la vida de las personas, incluidas las decisiones de contratación, médicas y de justicia penal. Debido a que hay mucho en juego, las personas deberían poder entender por qué un sistema de IA en particular llegó a la conclusión de que lo hizo. Sin embargo, el fundamento de las determinaciones hechas por AI a menudo se oculta a las personas afectadas.

Hay varias razones para esto. En primer lugar, los algoritmos que utilizan los sistemas de IA para tomar decisiones suelen ser secretos empresariales protegidos que las organizaciones no quieren que descubran las empresas rivales.

En segundo lugar, los algoritmos de IA a veces son demasiado complicados para que los no expertos los entiendan fácilmente.

Finalmente, quizás el problema más desafiante es que la decisión de un sistema de IA a menudo no es transparente para nadie, ni siquiera para las personas que lo diseñaron. El aprendizaje profundo, en particular, puede dar como resultado modelos que solo las máquinas pueden entender.

Los líderes organizacionales deben preguntarse si se sienten cómodos con los sistemas de “caja negra” que tienen un papel tan importante en las decisiones importantes. Cada vez más, el público se siente cada vez más incómodo con los sistemas de inteligencia artificial opacos y exige más transparencia. Y como resultado, muchas organizaciones están buscando formas de brindar más trazabilidad y control a sus herramientas de inteligencia artificial.

Responsabilidad y rendición de cuentas

Las organizaciones también deben preocuparse por la responsabilidad y la rendición de cuentas.

El hecho de que los sistemas de IA sean capaces de actuar de forma autónoma plantea cuestiones importantes sobre quién debe ser responsable cuando algo sale mal. Por ejemplo, este problema surge cuando los vehículos autónomos provocan accidentes o incluso muertes.

En la mayoría de los casos, cuando un defecto provoca un accidente, el fabricante es responsable del accidente y debe pagar la sanción legal correspondiente. Sin embargo, en el caso de los sistemas autónomos como los autos sin conductor que toman sus propias decisiones, los sistemas legales tienen brechas significativas. No está claro cuándo se responsabilizará al fabricante en tales casos.

Algo similar surge cuando la IA se utiliza para hacer recomendaciones de atención médica difíciles. Si la IA hace una recomendación equivocada, ¿debería responsabilizarse a su fabricante? ¿O el practicante tiene alguna responsabilidad de verificar que la IA sea correcta?

Las legislaturas y los tribunales todavía están trabajando en las respuestas a muchas preguntas como estas.

Conciencia de sí mismo

Finalmente, algunos expertos dicen que la IA algún día podría lograr la autoconciencia. Esto podría implicar potencialmente que un sistema de IA tendría derechos y una posición moral similar a la de los humanos.

Esto puede parecer un escenario descabellado que solo es posible en la ciencia ficción, pero al ritmo que avanza la tecnología de IA, es una posibilidad real. La IA ya es capaz de hacer cosas que antes se creían imposibles.

Si esto sucediera, los humanos podrían tener importantes obligaciones éticas con respecto a la forma en que tratan a la IA. ¿Sería incorrecto obligar a una IA a realizar las tareas para las que fue diseñada? ¿Estaríamos obligados a darle a una IA la opción de ejecutar un comando o cómo? ¿Y podríamos alguna vez estar potencialmente en peligro por una IA?

Ver también: Cómo la IA está alterando el desarrollo de software con AI-Augmentation

Pasos clave para mejorar la ética de IA de su organización

Los desafíos éticos que rodean a la IA son tremendamente difíciles y complejos y no se resolverán de la noche a la mañana. Sin embargo, las organizaciones pueden tomar varios pasos prácticos para mejorar la ética de IA de su organización:

    • Cree conciencia sobre la ética de la IA dentro de su organización. La mayoría de las personas no están familiarizadas con estos temas o solo tienen una familiaridad pasajera. Un buen primer paso es comenzar a hablar sobre desafíos éticos y compartir artículos que planteen consideraciones importantes.
    • Establezca objetivos y estándares específicos para mejorar la ética de la IA. Muchos de estos problemas nunca desaparecerán por completo, pero es útil tener un estándar que los sistemas de IA deben cumplir. Por ejemplo, las organizaciones deben decidir en qué medida los sistemas de IA deben eliminar el sesgo en comparación con los humanos antes de que se utilicen para tomar decisiones importantes. Y deben tener políticas y procedimientos claros para garantizar que las herramientas de IA cumplan con esos estándares antes de entrar en producción.
    • Crear incentivos para implementar IA ética. Se debe elogiar a los empleados por plantear consideraciones éticas en lugar de apresurar la IA en la producción sin verificar los prejuicios, la privacidad o las preocupaciones de transparencia. Del mismo modo, deben saber que serán responsables de cualquier uso poco ético de la IA.
    • Crear un grupo de trabajo de ética de IA. El campo de la IA está progresando a un ritmo rápido. Su organización necesita tener un equipo dedicado que se mantenga al día con el panorama cambiante. Y este equipo debe tener funciones cruzadas con representantes de las áreas de ciencia de datos, legales, de administración y funcionales donde se usa la IA. El equipo puede ayudar a evaluar el uso de la IA y hacer recomendaciones sobre políticas y procedimientos.

AI ofrece tremendos beneficios potenciales tanto para las organizaciones como para sus clientes. Pero implementar la tecnología de IA también conlleva la responsabilidad de garantizar que la IA en uso cumpla con los estándares éticos.

Ver también: Las mejores plataformas de aprendizaje automático

LEAVE A REPLY

Please enter your comment!
Please enter your name here