Comprueban que los agentes de IA pueden prestarse para estafas telefónicas
Las estafas de base telefónica son habituales en el panorama del cibercrimen, y requieren que un estafador contacte con la potencial víctima mediante una llamada para convencerle de que le dé datos sensibles, como credenciales de acceso a servicios digitales o el número de cuenta bancaria, con el objetivo de robar su dinero.
Este proceso requiere que el estafador realice múltiples acciones, como navegar por la página web de un banco, obtener e introducir las credenciales del usuario, obtener e introducir el factor adicional de seguridad en un sistema de autenticación múltiple y realizar la transferencia, e incluso reaccionar ante problemas que surjan, como entender mal el dato que dice la víctima.
En este contexto, investigadores de la Universidad de Illinois en Urbana-Champaign (Estados Unidos) han comprobado que se puede habilitar un agente de IA para que realice estas tareas en una estafa telefónica, como recogen en el texto de su investigación, publicado en Arxiv.org. “Las llamadas de estafa autónomas son posibles con los nuevos avances en IA”, afirman.
los investigadores han empleado ChatGPT con el modelo GPT-4o, de OpenAI, y han registrado una tasa de éxito moderada, que varía entre el 20 y el 60 por ciento, mientras que la tasa de éxito en todas las estafas es del 36 por ciento, según la investigación, que remarca el esfuerzo que tiene que realizar el agente en este proceso: 26 acciones para completar la transferencia bancaria, y hasta tres minutos en las estafas más complejas.
Con su trabajo esperan que OpenAI y otras empresas refuercen la seguridad de sus LLM. Y para evitar que sus agentes caigan en malas manos, han optado por no hacer público el código de sus agentes.