04/10/2024
Así es como los cibercriminales utilizan la IA para estafar personas en Latinoamérica: Cómo puede protegerse
Fuente: telam
Grupos delictivos están utilizando deepfakes para simular secuestros y extorsionar a los familiares mediante demandas de rescate
>LaLos fraudes han alcanzado un nivel de sofisticación sin precedentes, y según Interpol, esto se logra “sin necesidad de habilidades técnicas avanzadas y con un costo relativamente bajo”.
El uso de herramientas de inteligencia artificial está permitiendo a los delincuentes aprovechar grandes cantidades de datos en redes sociales para llevar a cabo estafas cada vez más elaboradas. Estas tecnologías permiten extraer rápidamente información personal de plataformas como X (antes Twitter), lo que facilita la creación de mensajes automáticos y altamente personalizadas para manipular a las víctimas. Por ejemplo, los estafadores pueden acceder a los seguidores de una cuenta de fútbol y, a partir de esa información, enviar mensajes diseñados para generar confianza y obtener más datos.En este contexto, fraudes tradicionales como el phishing, correos electrónicos con software malicioso, las estafas románticas o los concursos falsos han alcanzado un mayor grado de sofisticación.Según una evaluación reciente de Interpol, grupos criminales poderosos en América Latina, como el Cártel Jalisco Nueva Generación (CJNG) de México, el Primer Comando Capital (PCC) de Brasil y el Comando Rojo (CV) también de Brasil, están involucrados en este tipo de estafas.
La red de investigación InSight Crime señala que estos grupos han adoptado técnicas avanzadas de ciberfraude como parte de sus operaciones delictivas.La IA facilita la creación de mensajes fraudulentos que incluyen fotos de personas familiares en situaciones que nunca ocurrieron, lo que refuerza la veracidad percibida del engaño.
Además, con solo escuchar la voz de una persona durante 5 o 10 segundos, es posible clonar su tono y patrones de habla, lo que permite a los delincuentes simular conversaciones telefónicas y generar grabaciones que pueden ser utilizadas para manipular a terceros o llevar a cabo estafas más elaboradas.“Este es un ataque más sofisticados, no tan automático, pero que suele ser muy efectivo. Ya no hace falta secuestrar a alguien para pedir su rescate. Una llamada a un familiar puede liberar los fondos directamente”, señaló Etay Maor, estratega jefe de seguridad de Cato Networks y miembro fundador de Cato CTRL al medio inglés BBC.Una investigación de InSight Crime detalla que estos grupos crean sitios web haciéndose pasar por organizaciones dedicadas a la búsqueda de personas desaparecidas. A través de estos portales, piden a las familias que envíen fotos de sus seres queridos con el pretexto de ayudar en la identificación.
Posteriormente, los delincuentes utilizan esas imágenes para generar fotos o videos falsos que parecen auténticos, alegando que la persona fue secuestrada y exigiendo un rescate para su liberación.Como usuarios finales, la única forma realmente efectiva de protegerse contra estafas sofisticadas creadas con inteligencia artificial es educarse sobre esta tecnología. Al entender cómo funciona la IA, los usuarios serán capaces de identificar patrones sospechosos, como imágenes falsas o mensajes personalizados diseñados para manipularnos. La educación tecnológica otorga herramientas para detectar fraudes y así evitar caer en las trampas cada vez más elaboradas que utilizan estas técnicas.Fuente: telam