viernes, noviembre 15, 2024
More
    InicioTecnologíaTop 5 de las estafas con Inteligencia Artificial más sofisticadas que debes...

    Top 5 de las estafas con Inteligencia Artificial más sofisticadas que debes conocer

    -

    El uso de la inteligencia artificial ha demostrado ser una herramienta eficaz para mejorar la productividad de diversos profesionales, pero también ha sido adoptada por los ciberdelincuentes para llevar a cabo estafas de manera más rápida y sofisticada.

    Vincenzo Ciancaglini, investigador principal de amenazas en la empresa de seguridad Trend Micro, afirmó en una entrevista con MIT Technology Review que la mayoría de los delincuentes no operan desde lugares clandestinos, sino que son personas comunes que buscan mejorar su productividad a través de estas tecnologías.

    Un claro ejemplo de esta situación se está viviendo en América Latina, donde el incremento de estafas en línea ha alcanzado niveles preocupantes. En 2024, los intentos de fraude mediante mensajes falsos han aumentado un 140%, según la empresa de ciberseguridad Kaspersky.

    Un factor fundamental en este incremento es el uso de inteligencia artificial para crear deepfakes, audios y videos manipulados que complican la identificación de fraudes. Estos avances tecnológicos están permitiendo a los delincuentes perfeccionar sus tácticas, lo que plantea serios desafíos para la seguridad digital de las personas.

    La inteligencia artificial es utilizada para acelerar procesos. (Imagen Ilustrativa Infobae)La inteligencia artificial es utilizada para acelerar procesos. (Imagen Ilustrativa Infobae)

    Ante este panorama, MIT Technology Review, el portal de publicaciones del Instituto Tecnológico de Massachusetts, ha elaborado una lista con cinco casos en los que la inteligencia artificial ha hecho las estafas más sofisticadas.

    • Phishing

    El principal uso de la IA generativa entre los delincuentes en la actualidad es el phishing, una práctica que busca engañar a las personas para obtener información sensible con fines maliciosos. Según MIT Technology Review, los investigadores han observado un aumento significativo en los correos electrónicos de phishing tras el auge de ChatGPT.

    Herramientas que generan spam, como GoMail Pro, integran ChatGPT, lo que permite a los delincuentes traducir y mejorar los mensajes que envían a las víctimas, según explica Vincenzo Ciancaglini.

    Los ciberdelincuentes crean sofisticados esquemas de estafas con ayuda de IA. (Imagen Ilustrativa Infobae)Los ciberdelincuentes crean sofisticados esquemas de estafas con ayuda de IA. (Imagen Ilustrativa Infobae)

    Aunque las políticas de OpenAI prohíben el uso de sus productos para actividades ilegales, resulta complicado controlarlo en la práctica, ya que muchos mensajes que parecen inocentes pueden ser utilizados con fines maliciosos.

    OpenAI asegura que emplea una combinación de revisores humanos y sistemas automatizados para detectar y sancionar el uso indebido de sus modelos. Las medidas incluyen advertencias, suspensiones temporales e incluso prohibiciones para aquellos usuarios que violen las políticas de la empresa.

    • Estafas de audio deepfake

    La IA generativa ha impulsado el avance en la creación de deepfakes, logrando que las imágenes, videos y audios sintéticos sean más realistas que nunca, lo que ha captado la atención de los ciberdelincuentes.

    A principios de 2024, un empleado en Hong Kong fue víctima de una estafa en la que perdió 25 millones de dólares después de que los delincuentes utilizaran un deepfake del director financiero de su empresa para persuadirlo de transferir el dinero a la cuenta del estafador.

    La capacidad de IA de realizar deepfakes ha aumentado y con esto, las estafas. (Imagen Ilustrativa Infobae)La capacidad de IA de realizar deepfakes ha aumentado y con esto, las estafas. (Imagen Ilustrativa Infobae)
    • Eludir los controles de identidad

    Otra forma en que los ciberdelincuentes están utilizando los deepfakes es para evadir los sistemas de verificación de identidad.

    Tanto los bancos como las plataformas de intercambio de criptomonedas emplean estos sistemas para confirmar que sus clientes son personas reales, exigiendo a los nuevos usuarios que se tomen una foto con su documento de identidad frente a una cámara. Sin embargo, los delincuentes han comenzado a vender en plataformas como Telegram aplicaciones que permiten burlar este proceso.

    Estas herramientas funcionan proporcionando documentos de identidad falsos o robados y superponiendo una imagen deepfake sobre el rostro de una persona real, engañando así al sistema de verificación de la cámara del dispositivo.

    • Jailbreak-as-a-service

    Si se le pregunta a la mayoría de los sistemas de IA cómo fabricar una bomba, la respuesta no será útil. Esto se debe a que las empresas responsables de desarrollar inteligencia artificial han implementado diversas salvaguardias para impedir que sus modelos proporcionen información peligrosa o dañina.

    Los ciberdelincuentes se prestan para realizarle preguntas indebidas a los chatbots de IA. (Imagen Ilustrativa Infobae)Los ciberdelincuentes se prestan para realizarle preguntas indebidas a los chatbots de IA. (Imagen Ilustrativa Infobae)

    Crear modelos de IA sin estas protecciones resulta costoso, complejo y laborioso, por lo que los ciberdelincuentes han adoptado una nueva estrategia: el jailbreak como servicio.

    Sin embargo, el jailbreaking permite a los usuarios manipular el sistema para obtener resultados que infringen estas políticas, como la generación de código para ransomware o la creación de textos destinados a fraudes por correo electrónico.

    • Doxxing y vigilancia

    Los modelos de lenguaje de IA no solo son útiles para el phishing, sino también para actividades como el doxxing, que consiste en revelar información privada e identificable de una persona en línea.

    Los prompts son utilizados por los ciberdelincuentes para manipular las respuestas de la IA.  (Imagen Ilustrativa Infobae)Los prompts son utilizados por los ciberdelincuentes para manipular las respuestas de la IA. (Imagen Ilustrativa Infobae)

    Un ejemplo de cómo esto funciona sería solicitar a un chatbot que se hiciera pasar por un investigador privado experto en la elaboración de perfiles.

    Luego, se le podría pedir que analice el texto escrito por la víctima para deducir datos personales a partir de pistas sutiles en su redacción, como su edad en función de cuándo asistió a la escuela secundaria, o su lugar de residencia según los puntos de referencia que menciona en su ruta al trabajo.

    Cuanta más información disponible haya sobre una persona en Internet, mayor es su vulnerabilidad para ser identificada.

    Related articles

    Stay Connected

    0SeguidoresSeguir
    0SeguidoresSeguir
    0suscriptoresSuscribirte
    spot_img

    Latest posts