Cómo la IA podría cambiar las reglas del juego para la privacidad de datos

0
5
Cómo la IA podría cambiar las reglas del juego para la privacidad de datos



Verificación de identidad: la IA tiene profundas implicaciones sobre cómo se puede abusar de los datos

La IA ofrece múltiples beneficios a las empresas, pero también plantea riesgos para la privacidad de los datos

La inteligencia artificial (IA) está en todas partes, impulsando aplicaciones como asistentes inteligentes, filtros de spam y motores de búsqueda. La tecnología ofrece múltiples ventajas a las empresas, como la capacidad de brindar una experiencia más personalizada a los clientes. La IA también puede impulsar la eficiencia empresarial y mejorar la seguridad al ayudar a predecir y mitigar los ataques cibernéticos.

Pero si bien la IA ofrece beneficios, la tecnología plantea riesgos significativos para la privacidad, incluida la posibilidad de eliminar el anonimato de los datos. Investigaciones recientes revelaron que los modelos de aprendizaje profundo basados ​​en IA pueden determinar la raza de los pacientes en función de imágenes radiológicas como radiografías de tórax o mamografías, y con una precisión “significativamente mejor” que los expertos humanos.

Existe un “riesgo sustancial” de infringir la privacidad de las personas al usar sus datos para aplicaciones de IA, dice Sandeep Sharma, científico de datos líder en Capgemini. La amenaza aumenta por la falta de comprensión de la privacidad entre las organizaciones que utilizan IA, dice.

Los errores comunes incluyen:

  • Usar los datos para fines distintos a los que fueron recopilados
  • Recopilación de información sobre personas que no están en el alcance de la recopilación de datos
  • Almacenamiento de datos durante más tiempo del necesario

Esto podría hacer que las empresas no cumplan con la regulación de la privacidad de los datos, como la actualización de la UE del Reglamento General de Protección de Datos (GDPR).

IA + privacidad de datos

Los riesgos que plantean los sistemas basados ​​en IA abarcan múltiples vectores. Por ejemplo, se debe tener en cuenta el potencial de sesgo, dice Tom Whittaker, asociado senior del equipo de tecnología del bufete de abogados Burges Salmon del Reino Unido. “Los sistemas de IA se basan en datos, algunos de los cuales pueden ser personales. Esos datos, o la forma en que se entrenan los modelos, pueden estar sesgados sin querer”.

Al mismo tiempo, también existe la posibilidad de que los sistemas de IA se vean comprometidos y la información privada de un individuo quede expuesta. Esto se debe en parte a que los sistemas de IA se basan en grandes conjuntos de datos, lo que podría convertirlos en un objetivo más importante para los ataques cibernéticos, dice Whittaker.

Mientras tanto, existe la posibilidad de que la salida de datos de un sistema de IA exponga los detalles privados de un individuo directamente o cuando se combinen con otra información.

También existe un riesgo más general para la sociedad, ya que los sistemas de IA se utilizan para un número cada vez mayor de aplicaciones.

“La calificación crediticia, el perfil de riesgo criminal y las decisiones de inmigración son algunos ejemplos”, dice Whittaker. “Si la IA o la forma en que se usa es defectuosa, las personas pueden estar sujetas a mayores intrusiones en su privacidad de lo que habría ocurrido de otra manera”.

Sin embargo, otros expertos señalan que la IA puede tener un impacto positivo en la privacidad. Se puede utilizar como una forma de tecnología de mejora de la privacidad (PET) para ayudar a las organizaciones a cumplir con las obligaciones de protección de datos por diseño.

“La IA se puede utilizar para crear datos sintéticos que replican patrones y propiedades estadísticas de los datos personales”, explica Whittaker..

La IA también se puede utilizar para minimizar el riesgo de violaciones de la privacidad mediante el cifrado de datos personales, la reducción de errores humanos y la detección de posibles incidentes de seguridad cibernética, agrega.

Con estos beneficios en mente, el gobierno de Estonia tiene como objetivo estar impulsado por la IA para 2030. Ott Velsberg, director de datos del gobierno del Ministerio de Asuntos Económicos y Comunicaciones de Estonia, dice que la IA juega un “papel fundamental” en PET.

Por ejemplo, el aprendizaje federado se puede usar para entrenar modelos en conjuntos de datos remotos, sin compartir información, dice.

Para garantizar el cumplimiento de la normativa de protección de datos, Estonia ha desarrollado un servicio de consentimiento para permitir que las personas compartan sus datos en poder del gobierno con partes interesadas externas.

“También hemos desarrollado un rastreador de datos que brinda una descripción general de cómo se procesan los datos personales, que se puede ver en el portal del gobierno”, dice Velsberg.

Normativa para garantizar la privacidad

Actualmente, la IA se rige por una regulación que incluye el RGPD, pero se avecinan más. En este momento, la UE tiene las “protecciones de privacidad relacionadas con la IA más sólidas en la ley”, dice Michael Bennett, director de IA responsable en el Instituto de IA Experimental de la Universidad Northeastern.

La UE también planea introducir más regulaciones específicas para la IA, señala Whittaker. “Estos son relevantes para aquellos que colocan un sistema de IA en el mercado de la UE, por lo que afectarán a aquellos con sede en el Reino Unido que venden o implementan soluciones de IA en la UE. Estas regulaciones están destinadas a prohibir ciertos sistemas de IA e imponer obligaciones a cualquiera que sea de alto riesgo, describiendo cómo se pueden almacenar y usar los datos”.

Mientras tanto, el Reino Unido publicará un libro blanco sobre cómo propone regular la IA a fines de 2022.

Al tratar de gestionar los riesgos, es importante que los líderes empresariales conozcan la regulación actual y planificada que cubre la IA, dice Whittaker. Señala que el incumplimiento de las regulaciones puede tener consecuencias significativas: “El incumplimiento de las obligaciones de alto riesgo en virtud de la Ley AI propuesta por la UE conlleva multas potenciales de hasta 20 millones de euros, o hasta el 4 por ciento de la facturación anual”.

Para las empresas que usan sistemas de inteligencia artificial, la transparencia sobre cómo se usan los datos es esencial, dice Whittaker. “Si los usuarios no saben que se vieron afectados por una decisión tomada por AI, no estarán en condiciones de comprenderla o cuestionarla”.

De manera crucial, garantizar el consentimiento y el uso legítimo de los datos es clave, dice Mark Mamone, director de información del grupo en GBG. Además de esto, dice que las empresas deben asegurarse de que los propios algoritmos, así como los datos de los que dependen, estén “cuidadosamente diseñados, desarrollados y administrados para evitar consecuencias negativas y no deseadas”.

En general, la buena higiene de los datos es integral, dice Mike Loukides, vicepresidente de tecnología emergente de O’Reilly. “No recopile datos que no necesita y asegúrese de que la información se elimine después de un cierto período de tiempo. Asegúrese de que el acceso a los datos esté debidamente restringido y de que tenga implementadas buenas prácticas de seguridad”.

La IA es sin duda una tecnología revolucionaria que probablemente tendrá una presencia cada vez mayor en los negocios, pero debe administrarse de manera responsable para evitar intrusiones en la privacidad. Con esto en mente, los líderes empresariales deben pensar de manera más crítica sobre cómo se usa y se abusa de la IA, dice Loukides. “Si una aplicación de IA está aprobando préstamos, ¿es justa esa aplicación? a qué datos tiene acceso; y ¿cuáles son exactamente las entradas al motor de IA?

Relacionado:

Clive Humby: los datos pueden predecir casi todo sobre la gestión de una empresa. Clive Humby, inventor de Tesco Clubcard, sobre formas de dejar de sentirse tan abrumado por los datos, cómo convencer a su director ejecutivo de su importancia y por qué los datos deben mirar hacia adelante y no hacia atrás.

Cómo pueden prepararse las empresas para el proyecto de ley de protección de datos e información digital: Con el Proyecto de Ley de Protección de Datos e Información Digital actualmente en revisión en el Parlamento, el vicepresidente de investigación y desarrollo de Netwrix, Michael Paye, explica cómo las empresas pueden prepararse ampliamente

Olvídese de la transformación digital: la transformación de datos es lo que necesita. Stefano Maifreni, fundador de Eggcelerate, explica por qué las organizaciones deben centrarse en la transformación de datos para maximizar el valor a largo plazo

LEAVE A REPLY

Please enter your comment!
Please enter your name here