El reconocimiento de voz lleva años entre nosotros gracias a la Inteligencia Artificial, aunque ahora tenemos acceso sencillo a la otra vertiente: generación de voces sintéticas con ayuda de la IA generativa. Los primeros usos fueron lúdicos, como traducir al inglés cortes míticos de vídeo. Ahora se está extendiendo la IA generativa para hacerse pasar por otras personas.
Crear una imagen de cero no es precisamente sencillo, aunque la IA ha allanado en buena medida el proceso. Porque basta con acceder a sitios como Bing o Google Bard para obtener una foto en base a lo que les pidamos. ¿Un gato caminando por el arcoíris? La IA lo hace. ¿Y si en vez de fotografía necesitaremos un texto? La IA escribe un soneto del Siglo de Oro en segundos; por más que después haya que afinarlo. Pero ¿qué ocurre si necesitamos una voz?
La facilidad creando voces sintéticas allana el terreno para las estafas
El número de plataformas que permite generar audio a partir de voces está creciendo. Esto es realmente útil para quienes suben vídeos a YouTube o TikTok y quieren llegar al público de otras partes del mundo, por ejemplo: las herramientas de IA son capaces de analizar los tonos, inflexiones y variaciones de la entonación para clavar las voces en otro idioma. Y lo mismo que sirve para hacer hablar en otro idioma es válido para conseguir que la voz clonada diga palabras que nunca pronunció.
Imagina que suena tu móvil y respondes con un inocente «Sí». Ese monosílabo puede permitir que otra persona acepte un contrato en tu nombre, ya que le bastaría con suplantarte reproduciendo el «Sí» durante la grabación de las cláusulas del contrato. Y, de tener un registro con más palabras tuyas, una IA podría generar una voz clonada sin el menor esfuerzo. De hecho, bastan tres segundos de tu voz para que te clonen.
Los riesgos de esta tecnología son enormes, los expertos llevan tiempo alertando de los «deepfakes» aplicados al video y al audio además de sólo al sonido. Y no se quedaron sólo en la teoría, ya existen estafas con voces clonadas, como se hizo eco el Financial Times: un padre accedió a enviar dinero a unos extorsionadores después de que lo llamaran al móvil haciendo ver que torturaban a su hija en el otro lado del auricular. La voz clonada de la mujer sonaba tan auténtica que el padre picó en la estafa.
Todos podemos caer ante una llamada con número desconocido en la que, tras descolgarla, nos encontramos ante una voz conocida. Que le enviemos dinero porque ha perdido el teléfono, que se encuentra en problemas y necesita ayuda o alguna estrategia del estilo apelando a nuestra relación de cercanía: si la voz nos parece auténtica será muy complicado no creernos lo que nos cuente.
Consejos para no caer en las estafas de voz clonada
Aún no son demasiado populares, pero van a ir a más. Igual que las estafas suplantando los SMS auténticos, aquellas que hagan uso de voces sintéticas generadas por IA terminarán extendiéndose hasta llegar a una buena parte de la población. Y la mejor manera de protegernos ante ellas es usar el sentido común.
Bajo nuestra experiencia, y sabiendo cómo funcionan los sistemas de generación de voz, éstas son nuestras recomendaciones para evitar ser estafados; evitando de rebote que usen nuestra voz para estafar a algún amigo o familiar.
- Bloquea los números desconocidos y ocultos. Con este paso evitas las llamadas no deseadas, con esto suele filtrarse una buena cantidad de intentos de estafa.
- No respondas nunca con un «Sí» al descolgar. Lo mejor es quedarse en silencio hasta que la otra persona hable, si es que lo hace (en las robollamadas no suele hablar nadie). También es un buen consejo cambiar el «¿Sí?» por un «¿Diga?».
- Asegúrate en lo posible de que la otra persona es quien dice ser. Si te llama alguien conocido, y te pide algo que no encaja con lo habitual (seguramente dinero), nunca accedas a su petición a la primera. Hazle preguntas sobre cuestiones que sólo sepáis los dos, por el pasado de esa persona, su relación contigo... Ante cualquier duda cuelga. Y jamás envíes dinero hasta asegurarte al 100 % que te lo está pidiendo quién crees.
Imagen de portada | DALL-E 3 en ChatGPT editada
En Xataka Móvil | Timos en llamadas telefónicas: las estafas más extendidas y cómo evitar ser víctima de ellas