La ética de la IA es una preocupación creciente para los contadores

0
2
La ética de la IA es una preocupación creciente para los contadores

El mayor uso de la inteligencia artificial en el software de contabilidad ha traído consigo una creciente preocupación por los desafíos éticos que esta tecnología crea para los profesionales, sus clientes y el público en general.

En los últimos años, se ha visto un número creciente de soluciones de contabilidad que promocionan el uso de IA para una amplia gama de aplicaciones, desde planificación y auditorías fiscales hasta nómina y gastos, ERP y CAS. La profesión contable gastó $1,500 millones en dicho software en 2021 y se proyecta que gastará $53,000 millones para 2030, según un informe de Investigación y consultoría de Acumen.

A pesar de este rápido crecimiento, se ha prestado muy poca atención a las consideraciones éticas que lo acompañan, según Aaron Harris, director de tecnología de Sage, especialmente cuando se piensa en el dinero potencial que se puede generar.

“He visto, en muchos casos, que la tentación del éxito comercial es una voz más fuerte que cualquier preocupación ética”, dijo.

Pero, ¿cuáles son exactamente esas preocupaciones éticas? Harris dijo que los problemas actuales tienen menos que ver con la creación accidental de un señor supremo robot y más con la inserción de sesgos demasiado humanos en el código. Mencionó el ejemplo de algo que muchas empresas en general, incluidas las firmas de contabilidad, usan todo el tiempo ahora: la evaluación automatizada de currículums. Estos programas, dijo, están capacitados en datos ya existentes para guiar sus decisiones, muchos de los cuales reflejan sesgos creados por humanos. Si una IA se entrena con datos sesgados, entonces la IA actuará de manera sesgada, reforzando las desigualdades estructurales en el mundo de los negocios.

“Si ha creado una IA que analiza el currículum de un solicitante y toma una decisión basada en si procede o no a una entrevista, si los datos que ingresa en esa IA con fines de capacitación representan de manera desproporcionada una etnia u otra, o una género… si los currículums afroamericanos, si los currículums de mujeres, están subrepresentados, la IA naturalmente, debido a los datos introducidos en ella, favorecerá a los hombres blancos porque es muy probable que esa sea la mayor parte de los currículums que estaban en los datos de capacitación “, dijo.

Enrico Palmerino, CEO de Botkeeper, planteó un punto similar y dijo que ya ha habido problemas con los bots de aprobación de préstamos utilizados por los bancos. Al igual que los bots de currículum, los bots de préstamos usan datos bancarios para identificar quién es y quién no es un riesgo de incumplimiento y usan esa evaluación para determinar si alguien obtiene un préstamo. Los bots identificaron a las minorías como un riesgo de incumplimiento, que no era la correlación precisa, sino que el riesgo de incumplimiento era el mal crédito o el poco efectivo disponible; desafortunadamente, el bot aprendió la correlación incorrecta en ese caso.

“Como resultado de eso, comenzó a negar préstamos a personas de color, independientemente de dónde vivieran. Llegó a esta conclusión y no entendía muy bien cómo la geografía se relacionaba con las cosas. Así que tienes que preocuparte más por eso”. [versus accidentally creating SkyNet],” él dijo.

En este sentido, el problema de asegurarse de que a una IA se le enseñen las cosas correctas es similar a asegurarse de que un niño crezca con los valores correctos. Sin embargo, Harris, de Sage, señaló que las consecuencias de una IA mal enseñada pueden ser mucho más graves.

“La diferencia es que si no crías bien a un niño, la cantidad de daño que ese niño puede causar está contenida. Si no crías bien a una IA, la oportunidad de infligir daño es enorme porque la IA no lo hace”. No duermas, tiene una energía infinita. Puedes usar IA para escanear una habitación. Una IA puede observar una habitación de 1000 personas e identificar muy rápidamente a 999 de ellas. Si eso se usa incorrectamente, tal vez en la aplicación de la ley, para clasificar a las personas, la IA que hace que la gente se equivoque puede tener consecuencias catastróficas, mientras que una persona no tiene la capacidad de reconocer a 1.000 personas”, dijo.

Sin embargo, Beena Ammanath, directora ejecutiva del Deloitte AI Institute global, señaló que estos estudios de casos de sesgo pueden tener más matices de lo que parecen a primera vista. Si bien las personas se esfuerzan por hacer que la IA sea imparcial, señaló que nunca puede ser 100% porque está construida por personas y las personas son parciales. Es más una cuestión de cuánto sesgo estamos dispuestos a tolerar.

Señaló que, en ciertos casos, el sesgo no es un factor en absoluto en la IA o incluso es positivo, como en el caso del uso del reconocimiento facial para desbloquear un teléfono. Si la IA fuera completamente imparcial, no sería capaz de discriminar entre usuarios, anulando el propósito de la característica de seguridad. Con esto en mente, Ammanath dijo que preferiría analizar casos específicos, ya que el uso de la tecnología depende en gran medida del contexto.

“Entonces, el reconocimiento facial se usa en un escenario de aplicación de la ley para etiquetar a alguien como criminal: si está sesgado, eso es probablemente algo que no debería estar en el mundo porque no queremos que algunas personas sean etiquetadas de esa manera. Pero el reconocimiento facial El reconocimiento también se utiliza para identificar niños desaparecidos, víctimas de secuestro, víctimas de trata de personas y es literalmente [used in] exactamente la misma ubicación física, como un semáforo. Sí, es parcial, pero nos está ayudando a rescatar un 40 % más de niños que antes. Si no la hubiéramos usado, ¿es aceptable o simplemente deberíamos eliminar esa tecnología por completo?”, dijo.

Entonces, en lugar de pensar en el tema en un sentido filosófico amplio, Ammanath dijo que es más importante pensar en lo que las personas realmente necesitarían para que la IA funcione de manera efectiva. Una de las cosas más importantes, dijo, era la confianza. No se trata tanto de construir una IA que sea perfectamente ética, lo cual es imposible, sino más bien una en la que la gente común pueda confiar. A diferencia de una discusión abstracta de lo que es y no es ético, dijo que la confianza se puede definir y resolver, lo que, según ella, es más práctico.

La ética es una gran parte de esto, sí, pero también lo son la confiabilidad (las personas deben saber que el programa funcionará como se espera), la seguridad (las personas deben estar seguras de que no se ha visto comprometido), la seguridad (las personas deben tener confianza en que el programa no los dañará física o mentalmente), explicabilidad (sus procesos no pueden ser simplemente una caja negra), respeto por la privacidad (los datos que entrenan el programa se usaron con su consentimiento) y la presencia de alguien, presumiblemente humano, que en última instancia es responsable de las acciones de la IA. “Todos estos son factores importantes a considerar si desea que la IA sea confiable porque cuando usamos la IA en el mundo real, cuando está fuera de los laboratorios de investigación y la usan contadores o directores ejecutivos, debe poder confiar en eso. AI y conocer ese contexto más amplio”, dijo.

Al igual que Harris y Palmerino, señaló que las consecuencias del fracaso pueden ser bastante altas. Solo como ejemplo, señaló hallazgos recientes sobre cómo los algoritmos de las redes sociales pueden impulsar cosas como la depresión y el suicidio. En ausencia de algún sentido de responsabilidad, las personas pueden estar preparándose para lo que ella denominó un “escenario de Parque Jurásico” de IA en las que nadie puede confiar para hacer lo correcto. “[Responsibility] significa hacer la pregunta, ‘¿Es esto lo correcto? ¿Debería incluso construirse esta solución de IA? Me gustaría evitar ese escenario de Jurassic Park: solo porque sus científicos pudieron hacerlo, lo hicieron sin pensar si deberían hacerlo”, dijo.

Palmerino dijo que Botkeeper de hecho tiene en cuenta este tipo de consideraciones al desarrollar nuevos productos. Su proceso, dijo, consiste en observar todo lo que tocan sus productos y analizar dónde pueden colarse acciones potencialmente poco éticas. En este momento, dijo, “no hemos podido identificar esas situaciones”, pero la clave es que lo hicieron en primer lugar y tienen la intención de seguir haciéndolo. No descartó la posibilidad de futuras emisiones en esta línea, por ejemplo, si comienzan a enfocarse en el área fiscal.

“Digamos que le enseñamos a la IA que hay ciertos cubos para [expense] categorización que son un augurio ventajoso desde una perspectiva fiscal para el cliente, sea o no adecuado. La IA identifica las cosas que son estratégicas y más beneficiosas que las que no lo son, por lo que podría desarrollar un sesgo que podría categorizar todo como comidas y entretenimiento, incluso si se trata de una comida personal o fuera del estado, para obtener ese 100 % deducción porque entiende esos incentivos y este comportamiento podría reforzarse porque el dueño del negocio comienza a alentarlo”, dijo. Para tal caso, dijo, se necesitarán “barandillas” programadas de algún tipo.

Harris describió un proceso similar en Sage, diciendo que su empresa adopta un enfoque cuidadoso de la IA, asegurándose de comenzar con una comprensión clara de los riesgos éticos. Por ejemplo, tendrían que considerar si un bot de cobros de IA podría penalizar injustamente a algunos clientes o ser más agresivo o acosador al intentar recopilar que otros porque los datos que se usaron para entrenar la IA eran defectuosos. Con estos posibles escenarios en mente, Harris dijo que es importante que la supervisión humana y la responsabilidad se tengan en cuenta en el producto, incluso si la IA es muy avanzada.

“Hemos sido bastante conservadores en nuestro enfoque de la IA en Sage… Comenzamos muy temprano tratando de equilibrar nuestro entusiasmo por lo que podemos lograr con la IA con la humildad de que la IA tiene una inmensa oportunidad para lograr un impacto positivo y hacer las cosas más eficientes, pero hecho mal también puede tener un impacto negativo inmenso”, dijo.

Palmerino se sintió alentado de que estos temas estuvieran recibiendo más atención en el público e instó a los profesionales a pensar detenidamente sobre los posibles impactos negativos de sus acciones.

“Si planea tener algo que tenga un impacto, debe considerar lo bueno y lo malo. Tengo que mirarlo desde todos los ángulos para asegurarme de que estoy cambiando las cosas para mejor… Cualquiera que lea esto debería tómate un segundo para reflexionar y pensar: ¿Quieres ser recordado por tener buenas consecuencias, o ser recordado por crear algo negativo, algo que no puedes recuperar? Solo tenemos una vida y la única forma en que vivimos después de la muerte. está en la memoria. Así que esperemos que dejes un buen recuerdo”, dijo.

.

LEAVE A REPLY

Please enter your comment!
Please enter your name here