La tecnología deepfake utilizada por los defraudadores para eludir la verificación Know Your Customer (KYC) en los exchanges de criptomonedas y bancos sólo va a ser más avanzada, ha advertido el jefe de seguridad de Binance.
Los deepfake se realizan con herramientas de inteligencia artificial que utilizan el aprendizaje automático para crear audio, imágenes o vídeos convincentes con la imagen de una persona. Aunque esta tecnología tiene usos legítimos, también puede utilizarse para estafas y engaños.
La IA deepfake representa una grave amenaza para la humanidad, y ya no es sólo una idea descabellada. Hace poco me topé con un vídeo que muestra un deepfake de @cz_binance, y es aterradoramente convincente.
Deep fake AI poses a serious threat to humankind, and it's no longer just a far-fetched idea. I recently came across a video featuring a deep fake of @cz_binance , and it's scarily convincing. pic.twitter.com/BRCN7KaDgq
— DigitalMicropreneur.eth (@rbkasr) February 24, 2023
En declaraciones a Cointelegraph, el jefe de seguridad de Binance, Jimmy Su, dijo que había habido un aumento de los estafadores que utilizan la tecnología para tratar de pasar los procesos de verificación de clientes del exchange. "El delincuente busca una foto normal de la víctima en algún lugar de Internet. A partir de ahí, y utilizando herramientas de deepfake, son capaces de producir vídeos para burlar el proceso."
Su dijo que las herramientas se han vuelto tan avanzadas que incluso pueden responder correctamente a instrucciones de audio diseñadas para comprobar si el solicitante es un humano y pueden hacerlo en tiempo real. "Algunas de las verificaciones requieren que el usuario, por ejemplo, parpadee con el ojo izquierdo o mire a la izquierda o a la derecha, mire hacia arriba o hacia abajo. Los deepfakes están hoy lo suficientemente avanzados como para poder ejecutar esas órdenes", explicó.
Sin embargo, Su cree que los deepfakes aún no han alcanzado el nivel necesario
para engañar a un trader humano."Cuando vemos esos vídeos, hay ciertas partes que podemos detectar con el
ojo humano", por ejemplo, cuando el usuario debe girar la cabeza hacia un lado, explica
Su.
"La IA las irá superando con el tiempo. Así que no es algo en lo que
podamos confiar siempre."
En agosto de 2022, el jefe de comunicaciones de Binance, Patrick Hillmann, advirtió que un "sofisticado equipo de hackers estaba utilizando sus anteriores entrevistas de noticias y apariciones en televisión para crear una versión deepfake de él". La versión deepfake de Hillmann se desplegó entonces para llevar a cabo reuniones de Zoom con varios equipos de proyectos de criptomonedas, prometiendo una oportunidad para enlistar sus activos en Binance, por un precio, por supuesto.
"Ese es un problema muy difícil de resolver", dijo Su, cuando se le preguntó sobre cómo combatir este tipo de ataques. "Aunque podamos controlar nuestros propios vídeos, hay vídeos ahí fuera que no son de nuestra propiedad. Así que una cosa, de nuevo, es la educación del usuario".
En un post del blog de Binance se incluye una sección sobre ciberseguridad. Binance dijo que utiliza algoritmos de IA y aprendizaje automático para sus propios fines, incluida la detección de patrones inusuales de inicio de sesión y patrones de transacción y otra "actividad anormal en la plataforma".
Fuente: CoinTelegraph
No hay comentarios.:
Publicar un comentario
Gracias por dejar un comentario en Segu-Info.
Gracias por comentar!