Una nueva modalidad de estafa. La inteligencia artificial (IA) se está aplicando para realizar llamadas en las que se imitan las voces de familiares o personas conocidas para estafar al destinatario. Estás llamadas utilizan lo que se conoce como IA generativa, es decir, sistemas capaces de generar texto, imágenes o cualquier otro soporte, como vídeo, desde las instrucciones de un usuario.
Para crear una copia realista de la voz de alguien recurren a datos para entrenar al algoritmo. Para ello necesitan grabaciones de audio de la voz de la persona. Mientras más ejemplos de la voz de la persona se puedan incluir en los algoritmos, la copia final será más real.
Muchos de nosotros exponemos nuestra vida en internet. Esto significa que los datos de audio necesarios para crear una copia realista de una voz podrían estar al alcance en las redes sociales.
Esta posibilidad puede incrementar el riesgo de aumentar la prevalencia de la desinformación. Se utiliza para tratar de influir en la opinión pública internacional o nacional, como se ha visto con los «videos» de Zelensky.
Pero la ubicuidad y disponibilidad de estas tecnologías también supone retos importantes a nivel local, especialmente en la creciente tendencia de las «llamadas con IA para estafar».
Muchas personas habrán recibido una llamada de estafa o phishing que nos dice, por ejemplo, que nuestra computadora se ha visto comprometida y que debemos iniciar sesión inmediatamente, lo que podría dar al autor de la llamada acceso a nuestros datos.
A la fecha es muy fácil detectar los engaños, sobre todo cuando la persona que hace la llamada formula preguntas y pide información que alguien de una organización legítima no haría. Sin embargo, el tener la voz de un amigo o ser querido, aumenta el nivel de complejidad y de pánico.
Este no es un incidente aislado, y la estafa se ha dado con variaciones, que abarcan un supuesto accidente automovilístico, en el que la presunta víctima llama a su familia para pedir dinero para superar el accidente.