peligroDeposit
Por: Marta Sanz Romero
De entre los peligros que integra el avance de la tecnología deepfake, están las estafas telefónicas. Los delincuentes pueden falsear una conversación con la voz de un conocido para que confiemos en esa persona y aportemos datos o les pasemos dinero.
El deepfake no sólo sirve para crear divertidos vídeos sobre famosos o para mejorar los efectos especiales de las películas. Esta tecnología se ha convertido en un peligro, en una fábrica de engaño muy difícil de controlar.
Las estafas por teléfono con esta técnica no son nuevas, los hackers llevan tiempo recurriendo al aprendizaje automático para darle más credibilidad a sus timos. Pero sí es la primera vez que podemos escuchar el audio de un deepfake telefónico.
La firma de consultoría de seguridad NISOS ha publicado un informe en el que se analiza uno de estos fraudes y ha compartido con la revista Motherboard un fragmento de la conversación telefónica para que se pueda apreciar la calidad del audio generado con el programa de ordenador. Aquí tienes parte de ese clip.
Este audio forma parte de un correo de voz enviado a una empleado de una compañía. La voz que se ha intentado falsear es la del CEO de la empresa y en el audio le pide al empleado que acuda de manera inmediata para finalizar un negocio que es urgente.
La voz es algo robótica, pero lo suficientemente parecida a la de la persona real como para engañar a otra en un momento de apuro. Imaginemos que ese empleados es el más reciente en entrar en la empresa, la inseguridad puede ir en su contra. No obstante, el fraude al final no tuvo éxito.
El investigador de NISOS, Rob Volkert, ha explicado a Motherboard que el audio puede pasar definitivamente por la voz de un humano, aunque no se parece “lo suficiente al CEO”. El empleado que recibió el mensaje sospechó del correo y lo envió al departamento jurídico.