El FBI advierte sobre estafas de extorsión de IA Deepfake

Las habilidades de la IA generativa para crear imágenes realistas son impresionantes, pero la Oficina Federal de Investigaciones de EE. UU. dice que los delincuentes están utilizando falsificaciones profundas para extorsionar a las víctimas.

“El FBI continúa recibiendo informes de víctimas, incluidos niños menores y adultos que no dieron su consentimiento, cuyas fotos o videos fueron alterados en contenido explícito”, dijo la agencia en una alerta de PSA el lunes.

El FBI dice que las agencias de aplicación de la ley recibieron más de 7,000 informes el año pasado de extorsión en línea dirigida a menores, con un aumento en las víctimas de las llamadas "estafas de sextorsión" utilizando falsificaciones profundas desde abril.

Un deepfake es un tipo de contenido de audio o video cada vez más común creado con inteligencia artificial que representa eventos falsos que son cada vez más difíciles de discernir como falsos, gracias a las plataformas de IA generativa como Midjourney 5.1 y DALL-E 2 de OpenAI.

En mayo, un deepfake de Tesla y el CEO de Twitter, Elon Musk, hecho para estafar a los criptoinversionistas se volvió viral. El video compartido en las redes sociales contenía imágenes de Musk de entrevistas anteriores, editadas para adaptarse a la estafa.

No todos los deepfakes son maliciosos, un deepfake del Papa Francisco con una chaqueta blanca de Balenciaga se volvió viral a principios de este año y, más recientemente, los deepfakes generados por IA también se han utilizado para devolver la vida a las víctimas de asesinatos.

En sus recomendaciones, el FBI advirtió contra el pago de cualquier rescate porque hacerlo no garantiza que los delincuentes no publiquen el deepfake de todos modos.

El FBI también recomienda precaución al compartir información personal y contenido en línea, incluido el uso de funciones de privacidad como hacer que las cuentas sean privadas, monitorear la actividad en línea de los niños y observar el comportamiento inusual de las personas con las que ha interactuado en el pasado. La agencia también recomienda realizar búsquedas frecuentes en línea de información personal y de miembros de la familia.

Otras agencias que hacen sonar la alarma incluyen la Comisión Federal de Comercio de EE. UU., que advirtió que los delincuentes han estado usando falsificaciones profundas para engañar a las víctimas desprevenidas para que envíen dinero después de crear un audio falso de un amigo o familiar que dice que han sido secuestrados.

“La inteligencia artificial ya no es una idea descabellada de una película de ciencia ficción. Estamos viviendo con eso, aquí y ahora. Un estafador podría usar IA para clonar la voz de su ser querido”, dijo la FTC en una alerta al consumidor en marzo, y agregó que todas las necesidades criminales son un breve clip de audio de la voz de un miembro de la familia para que la grabación suene real.

El FBI aún no ha respondido a Descifrar de petición de comentario.

Manténgase al tanto de las noticias criptográficas, obtenga actualizaciones diarias en su bandeja de entrada.

Fuente: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams