ChatGPT ya puede imitar tu voz, pero aquí viene el problema: la suplantación de identidad con IA.

La clonación de voz con inteligencia artificial es solo una de las muchas herramientas de IA que han cobrado importancia en el 2023 y vuelve a ocupar portadas en 2024. GPT-4o de OpenAI ya permite este tipo de funciones.

Inteligencia artificial llamadas

Imagen generada con IA

Por: Carolina González Valenzuela

La capacidad de ChatGPT para generar texto que se parezca al que podrías hablar tú en una conversación con otra persona ha dado un paso más allá: ahora puede imitar voces. Pero cuidado, porque esta nueva función, que lo cierto es que pinta bastante prometedora, también pone en relieve un problema y es que la inteligencia artificial podría replicar tu voz sin tu permiso —y ya sabes para qué se podría usar eso—.

GPT-4o, el modelo más avanzado de OpenAI, permite a la IA generar diferentes voces. Sin embargo, durante las pruebas, se descubrió que en ciertas condiciones, la IA podía imitar la voz del usuario, incluso a partir de fragmentos de audio cortos.

Este fenómeno se debe a la forma en que el modelo de lenguaje genera voz. Basándose en una muestra, puede producir nuevas voces, incluso si no están autorizadas. Aunque OpenAI ha implementado medidas de seguridad para evitar esto, la posibilidad de que ocurra pone sobre la mesa un gran peligro.

Imagina recibir una llamada de un amigo o incluso un familiar pidiéndote información confidencial o diciéndote que necesitan que hagas una transferencia bancaria. Todo parece real, sobre todo porque reconoces su voz. Pero ¿y si no son ellos?

¿Cómo se podrían identificar este tipo de llamadas falsas creadas con IA?

“Se estima que en los próximos años este tipo de delitos vaya en aumento, pudiendo llegar a suponer un gran riesgo para los individuos debido a la complejidad de identificación del fraude, que con el tiempo también resulta probable que experimente múltiples mejoras”, nos explicaron en una anterior entrevista Raquel Puebla e Itxaso Reboleiro, analistas de ciberinteligencia en Innotec Security Part of Accenture.

Al final, un fragmento de la voz de alguien de una conversación es suficiente para que un delincuente lo utilice para generar conversaciones muy realistas que, en última instancia, son falsas. Si alguien conoce tu parentesco con otra persona y la graba para utilizarlo en tu contra, estás perdido casi con un 100% de probabilidad.

Y claro, que GPT-4o ya sea una herramienta perfecta para este tipo de actos, preocupa. En cuanto a cómo se podría revolver este gran problema que solo va a ir a más, es posible que existan varias formas de acabar con ello, como una mayor regulación o mejores medidas de seguridad por parte de las compañías que están detrás de estas herramientas.

Sin embargo, parece que la “solución” recae directamente en ti. Teniendo en cuenta que solo vas a contar con tus propios oídos para lograr identificar si se trata o no de una llamada falsa, hay ciertos aspectos que puedes tener en cuenta.

Comentarios