Abordar el fraude financiero con el aprendizaje automático

0
4
Abordar el fraude financiero con el aprendizaje automático

Deepfakes, también conocidos como medios sintéticos, se pueden usar para algo más que hacerse pasar por celebridades y hacer que la desinformación sea más creíble. También se pueden utilizar para el fraude financiero.

Los estafadores pueden usar tecnología deepfake para engañar a los empleados de las instituciones financieras para que cambien los números de cuenta e inicien solicitudes de transferencia de dinero por cantidades sustanciales, dice Satish Lalchand, director de Deloitte Transaction and Business Analytics. Señala que estas transacciones a menudo son difíciles, si no imposibles, de revertir.

Los ciberdelincuentes adoptan constantemente nuevas técnicas para evadir los procesos de verificación de conocimiento de su cliente y los controles de detección de fraude. En respuesta, muchas empresas están explorando formas en que el aprendizaje automático (ML) puede detectar transacciones fraudulentas que involucran medios sintéticos, fraude de identidad sintética u otros comportamientos sospechosos. Sin embargo, los equipos de seguridad deben tener en cuenta las limitaciones del uso de ML para identificar el fraude a gran escala.

Encontrar fraude a escala

El fraude en el sector de servicios financieros en los últimos dos años fue impulsado por el hecho de que muchas transacciones se enviaron a canales digitales como resultado de la pandemia de COVID-19, dice Lalchand. Él cita tres factores de riesgo que impulsan la adopción de tecnologías ML para la verificación de clientes y negocios: clientes, empleados y estafadores.

Aunque los empleados de las empresas de servicios financieros generalmente son monitoreados a través de cámaras y chats digitales en la oficina, los trabajadores remotos no son monitoreados tanto, dice Lalchand. Con más clientes que se registran virtualmente para servicios financieros, las empresas de servicios financieros están incorporando cada vez más ML en sus procesos de verificación y autenticación de clientes para cerrar esa ventana tanto para empleados como para clientes. ML también se puede usar para identificar solicitudes fraudulentas de asistencia gubernamental o fraude de identidad, dice Lalchand.

Además de detectar préstamos fraudulentos del Programa de Protección de Cheques de Pago, los modelos de ML pueden ser entrenados para reconocer patrones de transacciones que podrían indicar estafas de trata de personas o abuso de ancianos, dice Gary Shiffman, cofundador de Consilient, una firma de TI especializada en prevención de delitos financieros.

Las instituciones financieras ahora están viendo surgir fraudes en múltiples productos, pero tienden a buscar transacciones fraudulentas en silos. La inteligencia artificial y la tecnología ML pueden ayudar a reunir señales de fraude de múltiples áreas, dice Shiffman.

“Las instituciones continúan haciendo el whack-a-mole y continúan tratando de identificar dónde estaba aumentando el fraude, pero estaba ocurriendo en todas partes”, dice Lalchand. “La fusión de información… se llama CyFi, y reúne datos cibernéticos y financieros”.

Las herramientas de ML pueden ayudar a identificar positivamente a los clientes, detectar el fraude de identidad y detectar la probabilidad de riesgo, dice José Caldera, director de productos globales de Acuant en GBG. ML puede examinar el comportamiento pasado y las señales de riesgo y aplicar esas lecciones en el futuro, dice.

Los límites del aprendizaje automático

Aunque los modelos de ML pueden analizar puntos de datos para detectar fraudes a gran escala, siempre habrá falsos positivos y falsos negativos, y los modelos se degradarán con el tiempo, dice Caldera. Por lo tanto, los equipos de seguridad cibernética que entrenan el algoritmo para detectar el fraude deben actualizar sus modelos y monitorear sus hallazgos regularmente, no solo cada seis meses o cada año, dice.

“Tienes que asegurarte de que entiendes que el proceso no es una sola vez [task]. Y… debe contar con el personal adecuado que le permita mantener ese proceso a lo largo del tiempo”, dice Caldera. “Siempre obtendrá más información y… debe poder usarla constantemente para mejorar sus modelos y mejorando sus sistemas”.

Para los equipos de TI y ciberseguridad que evalúan la efectividad de los algoritmos de ML, Shiffman dice que necesitarán establecer la verdad sobre el terreno: la respuesta correcta o “verdadera” a una consulta o problema. Para hacerlo, los equipos que usan tecnologías ML prueban un modelo usando un conjunto de datos de prueba, usando una clave de respuesta para contar sus falsos negativos, falsos positivos, verdaderos positivos y verdaderos negativos, dice. Una vez que se tienen en cuenta estos errores y las respuestas correctas, las empresas pueden recalibrar sus modelos de ML para identificar actividades fraudulentas en el futuro, explica.

Además de actualizar sus algoritmos para detectar fraudes, los equipos de TI y ciberseguridad que usan tecnología ML también deben conocer las restricciones legales para compartir datos con otras entidades, incluso para identificar fraudes, dice Shiffman. Si está manejando datos de otro país, es posible que no pueda transferirlos legalmente a los EE. UU., dice.

Para los equipos que buscan usar la tecnología ML para la detección de fraudes, Caldera advierte que tales herramientas son solo un componente de una estrategia de prevención de fraudes y que no existe una solución única para resolver ese problema. Después de incorporar nuevos clientes, los profesionales de ciberseguridad y TI deben mantenerse al tanto de cómo están cambiando los comportamientos a lo largo del tiempo.

“El uso o no de la tecnología o el aprendizaje automático es solo un componente de su conjunto de herramientas”, dice Caldera. “Usted, como empresa, debe comprender: ¿cuál es el costo que está poniendo en esto, cuál es la tolerancia al riesgo que tiene y luego cuál es la posición del cliente que desea?”

LEAVE A REPLY

Please enter your comment!
Please enter your name here