La clonación de voz mediante IA puede usarse para estafarte. Esto es lo que el FBI recomienda para evitar caer en un engaño

Los delincuentes están haciendo un uso cada vez mayor de herramientas de IA para tratar de engañar a sus víctimas

Ilustración decorativa generada con IA
Sin comentarios Facebook Twitter Flipboard E-mail

El FBI alertaba esta misma semana del uso de herramientas de inteligencia artificial generativa en estafas de todo tipo. Gracias a las posibilidades de este tipo de herramientas, los delincuentes han encontrado nuevas formas de aumentar la credibilidad de sus engaños y lograr así que caigamos en la trampa, algo que puede llegar a tener consecuencias desastrosas.

En un comunicado publicado hace unos días, el FBI hace un resumen muy completo de las formas en las que los delincuentes están usando herramientas de IA capaces de generar texto, imágenes, audio y vídeos para engañar a sus víctimas. Además, el comunicado incluye una recomendación que nos ha llamado mucho la atención: crear una palabra o frase secreta para proteger a nuestra familia.

El uso de una palabra o frase secreta puede protegerte frente a estafas

El mensaje compartido por el FBI recopila algunos de los ejemplos de uso de herramientas de IA por parte de los delincuentes, desde la clonación de voz para hacerse pasar por figuras públicas o familiares de las víctimas hasta la generación de vídeos en los que se usa la imagen de figuras públicas para difundir estafas y engaños, entre otros.

Con el objetivo de evitar que puedan engañarnos mediante clonación de voz o vídeos generados por IA, el FBI recomienda pensar una palabra o frase secreta y compartirla con nuestros familiares más cercanos. Así, en caso de que un supuesto familiar se ponga en contacto con nosotros pidiéndonos dinero o incluso un rescate podremos comprobar rápidamente si se trata de una estafa.

El comunicado publicado por el FBI incluye una serie de recomendaciones adicionales que conviene tener muy presentes, como buscar imperfecciones sutiles en las imágenes y en los vídeos o escuchar atentamente el tono y las palabras escogidas con el objetivo de detectar si una llamada o grabación de voz es real o se ha generado mediante herramientas de inteligencia artificial.

Además de lo anterior, el FBI recomienda limitar los contenidos con nuestra imagen y nuestra voz que publicamos en redes sociales, ya que podrían utilizarse para generar contenidos mediante inteligencia artificial con los que intentar engañar a nuestros familiares. También es recomendable hacer privadas nuestras cuentas en redes sociales.

En caso de recibir una llamada de alguien que afirma ser un familiar, un empleado del banco o cualquier otra organización, es importante asegurarnos de que estamos hablando con la persona que afirman ser. En caso de duda, es recomendable cortar la llamada y ponernos nosotros en contacto directamente con la persona con la que que creemos estar hablando.

Vía | Arstechnica

Imagen de portada | Image Creator de Microsoft Designer

En Xataka Móvil | Este es el manual anti-hackeo de la NSA para proteger nuestros móviles y conexión a Internet

Inicio