‘Sonámbulo hacia una pesadilla distópica’: los expertos advierten sobre el crecimiento del sector de reconocimiento facial de IA

0
4
'Sleepwalking into a dystopian nightmare': Experts warn of AI facial recognition sector growth

La sociedad está caminando dormida hacia una pesadilla distópica de vigilancia según expertos en tecnología e investigadores que hablaron con Selector de cables de la ciudad.

Esto es en respuesta al crecimiento del sector biométrico y de reconocimiento facial, que ha comenzado a tener un gran impacto en el comportamiento humano y las comunidades que monitorea.

Rune Steenberg, antropóloga especializada en Xinjiang, uigures y antropología económica, ha sido testigo de primera mano de cómo la vigilancia masiva puede afectar el comportamiento y los hábitos cotidianos de las personas.

Al describir la ubicuidad del sector del reconocimiento facial y la vigilancia como un “fenómeno global”, el antropólogo con sede en Berlín dijo que los posibles usos malignos aún no se han comprendido por completo.

“La tecnología de vigilancia ha cambiado la forma de pensar de la gente”, agregó Steenberg, quien dijo que la nueva forma de evitar la vigilancia en Xinjiang es estar siempre monitoreado..

“Permanezca siempre en la cuadrícula de la cámara y el micrófono, pero asegúrese de no hacer nada que pueda hacer que alguien lo señale o lo reporte a las autoridades.

Habiendo sido testigo de cómo el lanzamiento de esta tecnología cambió el comportamiento de su amigo uigur, advirtió que pronto podría convertirse en una realidad para los occidentales, a menos que los legisladores promulguen leyes más estrictas para frenar su uso generalizado.

Estamos sonámbulos en una pesadilla distópica, mientras vemos cómo sucede justo en frente de nosotros. Esta actitud de que “aquí nunca podría pasar” es preocupante.’

La advertencia de Steenberg proviene de su experiencia personal, ya que en 2015 le dijeron que uno de sus amigos uigures desapareció mientras vivía en Xinjiang, que desde hace mucho tiempo se quedó con él.

“Uno de mis amigos uigures me sentó un día para decirme que nuestro amigo había desaparecido, pero antes de hablar sobre eso, guardó nuestros teléfonos en una habitación diferente y abrió el grifo del agua antes de decírmelo.

“Podías ver a las personas darse cuenta de que estaban siendo monitoreadas bastante antes de que el sistema explotara alrededor de 2017 a 2018. Las personas se estaban volviendo paranoicas cuando se dieron cuenta de que las personas que conocían estaban desapareciendo. De repente, la policía aparecía en las puertas de la gente sabiendo cosas que no deberían.’

Steenberg dijo que nunca ha tenido noticias de su amigo desaparecido desde que desapareció.

Fenómeno mundial

Su advertencia se produce después de que las Naciones Unidas publicaran un informe el 31 de agosto de 2022 que se centró en la detención ‘arbitraria’ a gran escala de uigures en el oeste de Xinjiang en China.

Concluyó que las acciones de Beijing podrían constituir ‘crímenes contra la humanidad’. La escala de la cual, agregó Steenberg, fue en parte ayudada por la tecnología de vigilancia generalizada.

‘No solo está sucediendo en China ahora, podría llegar a nosotros mañana, ya que está sucediendo globalmente de diferentes maneras y en diferentes grados en todo el mundo.

“Estamos ante un fenómeno global, tanto en el sentido de explotación laboral como de vigilancia. Por ejemplo, la vigilancia en los espacios de trabajo occidentales está muy desarrollada y tal vez incluso más avanzada que en China. Menos policiaco, pero tecnológicamente más avanzado”, dijo Steenberg.

Si bien el uso de la vigilancia por parte de China es extremo, no son atípicos en la adopción de esta tecnología.

Esto se muestra en un informe de 2019 de Carnegie Endowment for International Peace, que destacó que la tecnología de vigilancia habilitada por IA se estaba utilizando en al menos 75 de los 176 países estudiados.

Siendo China el mayor proveedor de dicha tecnología, vendiendo a 63 países, mientras que las empresas estadounidenses vendieron a 32 países, según un Tiempos financieros informe a principios de este año.

Los administradores de activos se dividen

Aunque algunos países han tomado medidas para restringir la adopción de empresas de vigilancia al colocarlas en listas negras, las empresas de gestión de activos siguen divididas sobre el tema.

Algunos prometen no invertir nunca en empresas que representen amenazas para los derechos humanos, mientras que otros creen que el compromiso es la mejor ruta.

Stephanie Hare, investigadora de ética tecnológica y autora de La tecnología no es neutral: una breve guía sobre la ética tecnológicausó un ejemplo de 2019 de tecnología de vigilancia que infringe los derechos de los trabajadores.

En este caso, 14 personas que trabajaban para Uber Eats dijeron cableado habían sido suspendidos o despedidos injustamente porque no habían superado la “verificación de identificación en tiempo real” de la empresa.

Este es un sistema que utiliza tecnología de verificación facial 1:1 para verificar que los conductores no estén subcontratando turnos a personas que no hayan pasado las verificaciones de antecedentes o que no tengan derecho a trabajar.

Hare, quien presentó sus hallazgos sobre los peligros de la tecnología de reconocimiento facial al Grupo Parlamentario de Todos los Partidos sobre Inteligencia Artificial del Reino Unido, cree que los gobiernos deben repensar urgentemente la implementación continua de los sistemas de vigilancia.

En su libro, Hare desglosa diferentes tipos de usos del reconocimiento facial y los clasifica según el riesgo de las libertades civiles y la privacidad.

A diferencia de Steenberg, Hare dijo que existe una comprensión más generalizada de los peligros de la tecnología de vigilancia entre los gobiernos y el público, y agregó que uno de los mayores obstáculos parece ser la apatía.

“Los gobiernos saben lo serio que es esto, al público se le ha dicho repetidamente sobre los peligros de este tipo de vigilancia a través de un sinfín de artículos sobre el tema. Pero cuando tienes sociedades que luchan contra tantos problemas políticos y sociales serios, a la gente le resulta difícil preocuparse realmente por estas cosas.

‘Solo mire a Australia que está desarrollando un sistema de vigilancia súper espeluznante llamado “The Capability”. ¿Por qué no estamos mirando esto? ¿Es porque están tan lejos y no nos importa? Tenemos que estar realmente atentos al desarrollo de este sector.’

Estados Unidos pone en la lista negra a empresas de vigilancia de IA

En junio de 2021, el presidente Biden firmó una orden ejecutiva que prohíbe a los estadounidenses invertir en más de 40 empresas, incluidas aquellas que permiten abusos contra los derechos humanos de los uigures musulmanes en Xinjiang.

Entre estas empresas prohibidas se encuentra Dahua Technologies, una empresa de propiedad parcialmente estatal que cotiza en bolsa y que vende productos y servicios de videovigilancia.

Otras entidades de vigilancia biométrica prohibidas incluyen: Cloudwalk Technology, Dawning Information Industry, Leon Technology Company, Megvii Technology, Netposa Technologies, SZ DJI Technology, Xiamen Meiya Pico Information y Yitu.

Es por estas razones que el administrador de fondos de Matthew Asia, Vivek Tanneeru, nunca ha invertido en compañías como Alibaba y Tencent. Tanneeru, con calificación AAA de Citywire, que administra los fondos de mercados emergentes ESG de Asia de la empresa, dijo que su política de no invertir en estas empresas se ha mantenido constante.

“Manejamos un fondo del Artículo 9, por lo que creemos que no invertir en estas empresas es lo correcto”, dijo Tanneeru.

Por otro lado, un administrador de activos que apoya el compromiso sobre la exclusión es Fidelity International, quien confirmó tener una “pequeña cantidad de participaciones” con Dahua en sus fondos Fidelity Pacific y Fidelity Global Multi Asset Income.

Un portavoz de Fidelity dijo Selector de cables de la ciudad: ‘Tenemos una propiedad muy pequeña en Dahua. Fidelity ha tenido una presencia sustancial y de larga data en China continental con más de mil empleados ubicados en el país.

‘Nos involucramos activamente con nuestras empresas en las que invertimos, siendo este nuestro camino preferido para la inversión sostenible, en lugar de la exclusión. Hemos descubierto que nuestras empresas chinas son muy receptivas a nuestro compromiso activo y han cambiado las políticas en consecuencia.

‘Cuando las empresas no logran mejorar frente a los objetivos acordados o desarrollan un patrón de deterioro de los resultados de sostenibilidad, revisaremos y potencialmente venderemos nuestra participación’.

¿Dónde sigue?

Si bien muchos dicen que queda mucho trabajo por hacer para crear conciencia sobre los riesgos asociados al sector, los activistas y los analistas de ESG no se han quedado en silencio, y se han planteado preocupaciones de derechos civiles sobre los riesgos de adoptar tecnología de vigilancia biométrica invasiva.

Esto incluye a Candriam, que en 2021 lanzó un proyecto de compromiso colaborativo con 51 empresas sobre tecnología de vigilancia, además de publicar un libro blanco que incluía los riesgos asociados a la tecnología de vigilancia y reconocimiento facial.

Un informe de 2021 del administrador de activos destacó los riesgos que plantea la tecnología de reconocimiento facial y advirtió sobre sus posibles amenazas a los derechos humanos.

El informe indicó cómo las agencias de aplicación de la ley ya están implementando el reconocimiento facial a gran escala en todo el mundo, con un estimado de mil millones de cámaras de vigilancia que se prevé que estén operativas para fines de 2021.

“Hoy, los ciudadanos de Detroit, Londres, Mónaco, Moscú, Beijing y otros lugares caminan sin darse cuenta de que sus rostros están siendo escaneados por sistemas de reconocimiento facial operados por la policía”, dice el informe.

La analista de políticas de EE. UU. Isedua Oribhador, que trabaja para AccessNow, también advirtió en el mismo informe sobre los riesgos para la privacidad y los derechos humanos que plantean los sesgos raciales y de género integrados en estos sistemas. Al igual que con Steenberg y Hare, el informe pidió a los legisladores que promulguen regulaciones más estrictas.

“Es imperativo examinar estos riesgos y trazar líneas rojas en torno a dónde el uso de esta tecnología es incompatible con el respeto de los derechos humanos”.

LEAVE A REPLY

Please enter your comment!
Please enter your name here