Hechos clave:
-
Estafadores usan IA para crear deepfakes con los que buscan eludir la verificación KYC.
-
Proteger la privacidad y el anonimato es cada vez más necesario.
Ante la histeria colectiva que se ha desatado en el mundo con la Inteligencia Artificial (IA), pocos están hablando sobre los peligros, aunque esta representa un riesgo creciente para los usuarios de bitcoin (BTC) y otras criptomonedas que operan en exchanges.
Los estafadores utilizan, cada vez más, las herramientas de IA para crear deepfakes con los que buscan eludir la verificación KYC (Conozca a su cliente) de las casas de cambio. Así lo advierte Jimmy Su, director de seguridad de Binance, el exchange de criptomonedas con mayor volumen de comercio a nivel global.
“El estafador buscará en Internet una foto normal de la víctima. En base a eso, puede producir videos utilizando herramientas de falsificación profunda para evadir la verificación”, dijo Su, según una publicación de Cointelegraph.
Detallando el modus operandi que usan los estafadores, Su añade que las herramientas de IA se han vuelto tan sofisticadas que incluso pueden responder a instrucciones de audio diseñadas para verificar que el solicitante es humano. De hecho, ya existe un software que puede hacer esto en tiempo real.
“Por ejemplo, requiere que el usuario parpadee con el ojo izquierdo, o que mire a la izquierda, a la derecha, hacia arriba o hacia abajo. Los deepfakes ahora son tan avanzados que en realidad pueden ejecutar estos comandos”, agregó el jefe de seguridad.
Su añadió que, aunque la IA es cada vez más avanzada, “aún no está al nivel en el que pueda engañar a un operador humano” porque no es indistinguible de la realidad.
David Schwed, el director de operaciones de la firma de seguridad blockchain Halborn sugiere que una forma útil de detectar rápidamente un deepfake es observar cuando el sujeto parpadea. Si parece antinatural, es muy probable que se trate de un video manipulado con intenciones fraudulentas.
Esto se debe al hecho de que los videos ultrafalsos se generan utilizando archivos de imagen obtenidos en Internet, donde el sujeto generalmente tendrá los ojos abiertos, explica Schwed. Por lo tanto, en un deepfake, se debe simular el parpadeo de los ojos del sujeto.
Otra fórmula que pueden implementar los usuarios para evitar el deepfake, es mejorar la privacidad y el anonimato, aunque curiosamente estas medidas de seguridad entran en conflicto con el uso de exchange centralizados que implementan procedimientos KYC.
Cuidado con los deppfakes que pescan criptomonedas
La firma de seguridad Kaspersky también está alertando sobre los deepfakes para llevar a cabo diversas estafas, como el fraude con criptomonedas, o evadir la seguridad biométrica.
En algunos casos los estafadores utilizan imágenes de famosos o mezclan videos antiguos para hacer transmisiones en vivo en redes sociales. En ellas muestran una página prediseñada en la que piden a las víctimas transferir cierta cantidad en criptomonedas, prometiendo que duplicarán cualquier pago que se les envíe. Como resultado, las víctimas de estas estafas pierden todo el monto transferido.
Ante ello, Kaspersky recomienda mantenerse alerta con respecto a las amenazas relacionadas con los deepfakes para evitar convertirse en una víctima. En ese sentido sugiere estar atentos a los movimientos bruscos que se producen en los videos.
Algunos de estos cambios bruscos son alteraciones en la iluminación de un fotograma a otro, cambios en el tono de la piel de las personas, parpadeo extraño o ausencia total de parpadeo. También recomienda observar si hay labios mal sincronizados con el habla, artefactos digitales en la imagen, así como videos intencionalmente codificados en baja calidad y con mala iluminación.
Por otro lado, se aconseja mantener una actitud escéptica ante los mensajes de voz y los videos, lo cual no garantizará que la gente nunca sea engañada, pero puede ayudar a evitar muchas de las trampas más comunes. Ante todo, lo mejor será verificar antes que confiar, señala Kaspersky.
FUENTE: CRIPTONOTICIAS