sábado, noviembre 23, 2024
More
    InicioTecnologíaAsí es la estafa de suplantación de identidad con inteligencia artificial, un...

    Así es la estafa de suplantación de identidad con inteligencia artificial, un delito que no para de crecer

    -

    Solo 30 segundos de un audio alcanzan para clonar una voz. Un fiscal especialista en ciberdelito compartió consejos para evitar caer esta nueva versión del “cuento del tío”.

    La era de la inteligencia artificial generativa trajo innumerables beneficios. Desde el aumento de la productividad diaria al hacer tareas más rápido, hasta la creación de imágenes y videos realistas originales, la tecnología llegó sin dudas para ayudarnos.

    Sin embargo, una consecuencia de estos avances es el uso malicioso de las nuevas herramientas. En este aspecto, las estafas digitales impulsadas por IA crecen día a día. Especialmente, el delito de suplantación de identidad generado con deepfake es uno de los fraudes que más aumentó en los últimos tiempos.

    En este tipo de engaño, los delincuentes llaman a la víctima haciéndose pasar por un familiar o amigo. Fingen un problema (accidente, urgencia, necesidad de efectivo o incluso un secuestro) y le piden dinero. El clásico “cuento del tío”, pero más difícil de detectar por culpa de la tecnología de clonación de voces con IA.

    Suplantación de identidad con inteligencia artificial, un delito que no para de crecer. (Foto: Adobe Stock)
    Suplantación de identidad con inteligencia artificial, un delito que no para de crecer. (Foto: Adobe Stock)

    “La clonación de voz por inteligencia artificial funciona mediante un software que analiza los aspectos característicos que hacen única a cada voz: el acento, la cadencia, el tono, la edad y género de la persona. La IA encuentra patrones y luego los replica”, explicó Lucas Moyano, fiscal especializado en cibercrimen.

    Para clonar la voz de una persona, los ciberdelincuentes tienen diferentes métodos. Pueden comunicarse con la víctima con cualquier excusa y grabar la llamada, por ejemplo. Pero en la mayoría de los casos, son los propios usuarios quienes proporcionan su voz. “Solo 30 segundos de un audio son suficientes para lograr una clonación”, aseguró Moyano. Y agregó: “Muchas personas comparte contenido (videos, reels, etc.) en las redes sociales donde se puede escuchar su voz. Allí podrían obtenerse los datos de audio necesarios para realizar una copia de nuestra voz”.

    Una vez que consiguen el audio necesario para hacer una clonación, lo ingresan en una herramienta generativa y pueden indicarle a la IA que diga cualquier cosa y sonará convincente.

    Cómo evitar caer en estafas de clonación de voz

    Lucas Moyano recomendó una serie de prácticas para detectar este fraude y evitar caer en estafas:

    • Establecer una palabra segura como un código entre familiares y amigos para situaciones de emergencia.
    • Desconfiar de los llamados provenientes de un número desconocido: en caso de recibir una llamada sospechosa, en conveniente pedir datos adicionales para verificar la identidad de la persona con la que estás hablando.
    • Desconfiar y cuestionar todo: preguntarse si la persona realmente es quien dice ser, si el contexto es creíble y si lo que te están solicitando es algo razonable.
    • No confiar en la voz del otro lado de la línea: si recibís una llamada de un familiar o ser querido que te pide dinero, cortá inmediatamente y llamá por teléfono a la persona para confirmarlo o avisarle que su número o WhatsApp fue hackeado. También podés solicitar una videollamada para constatar la situación.
    • Difundir: informá a tu familia y amigos de esta nueva forma de estafa y compartí estos consejos para que sepan cómo actuar en estas situaciones.

    Related articles

    Stay Connected

    0SeguidoresSeguir
    0SeguidoresSeguir
    0suscriptoresSuscribirte
    spot_img

    Latest posts