Advierten sobre el uso de inteligencia artificial para generar deepfakes y ciberestafas
Un caso conocido fue el de un gerente de una empresa que transfirió 25 millones de dólares a varias cuentas, creyendo que la voz de su interlocutor, era de su jefe.
El Observatorio de Cibercrimen y Evidencia Digital en Investigaciones Criminales de la Universidad Austral (OCEDIC) advirtió en las últimas horas sobre el uso de inteligencia artificial para generar deepfakes y ciberestafas, cuyas víctimas suelen ser las corporaciones empresariales.
Se trata de contenido multimedia sintético generado por Inteligencia Artificial (IA) que se encuentra disponible a través de aplicaciones como FaceApp o Deep Face Lab, entre otras.
La tecnología deepfake, según se explicó, puede producir un video o audio falso de una persona, que se percibe como verdadero, expresando algo que en realidad nunca dijo. Estas falsificaciones generan, sistemáticamente, amenazas de fraudes en línea, cuyas víctimas suelen ser las corporaciones empresariales.
En el marco de la presentación del libro "Ciberfraudes: Criptoactivos y Blockchain" que forma parte de una colección de materiales sobre el tema a cargo de la fiscal Daniela Dupuy, directora de OCEDIC, se profundizó acerca de esta modalidad que impacta a nivel internacional, debido a la transnacionalidad de la comisión de estas conductas delictivas, cuyos autores pueden operar desde cualquier parte del mundo.
"Los resultados de un estudio reciente mostraron que la amenaza más significativa de la IA ofensiva es su capacidad para mejorar algunos de los ataques de ingeniería social, como por ejemplo utilizar deepfakes para clonar la voz de directores ejecutivos o la imagen de ciudadanos respetables", explicó Dupuy.
En tanto, un informe de la Fundación Carnegie para la Paz Internacional sobre la amenaza que suponen las deepfakes resalta su posible intervención en diferentes formas de fraudes de identidad, permitiendo a los atacantes mejorar su capacidad para engañar a los humanos añadiendo un plus de autenticidad.
El uso de chatbots de IA, como ChatGPT, también puede fomentar las actividades fraudulentas, pudiendo ayudar a los posibles estafadores a superar errores de lenguaje que se suelen encontrar en mensajes de phishing (ejemplo de ello es una petición y respuesta de ChatGPT en cualquier idioma).
Es decir que estos modelos de lenguaje de gran tamaño pueden crear mensajes de todo tipo, con una excelente gramática, haciéndolos pasar como verdaderos y disminuyendo la posibilidad de identificar a los sospechosos.
A modo de ejemplo, está el caso del gerente de una empresa que transfirió 25 millones de dólares a varias cuentas controladas por los estafadores, creyendo que la voz de su interlocutor, que le pedía que efectuara las transferencias, pertenecía a su jefe.
O, el caso del estafador que mantuvo chats de videos con la empleada de una empresa, indicándole el paso a paso de una transferencia millonaria a una compañía en Japón, pero aquellas conversaciones fueron en realidad manipuladas utilizando clips de videos de acceso público del verdadero jefe de la víctima.
En cuanto a la prevención de las estafas en línea que usan imágenes, videos y audios generados por IA, se ha detectado que los mecanismos para identificarlos suelen ir por detrás de las herramientas que las produce.
"Desde OCEDIC trabajamos desde la amplificación y la prevención buscando formar e informar a los especialistas y a los ciudadanos. En ese sentido, resulta fundamental que los usuarios analicen la situación antes de responder cualquier mensaje que reciban a través de las TICS y, por otro lado, incluir protocolos dentro de los Programas de Compliance corporativo, que posean una doble verificación de las solicitudes de acciones potencialmente perjudiciales, como transferencias o cambios en la información de las cuentas bancarias de los proveedores", culminó Dupuy.