Se adhiere a los criterios de The Trust Project
¿Tienes una idea para proteger al público de la clonación de voz con inteligencia artificial?

Mediante el “Voice Clonation Challenge”, la FTC solicita propuestas de productos o procedimientos innovadores, que ayuden a prevenir, monitorear y evaluar el uso malicioso de esta tecnología

21 de noviembre de 2023 - 3:00 PM

Nota de archivo
Esta historia fue publicada hace más de 1 año.
Utilizando inteligencia artificial, los estafadores pueden capturar la voz de un ser querido y hacerle creer a la víctima -durante una llamada telefónica- que realmente tienen a su familiar secuestrado. (Shutterstock)

A medida que la inteligencia artificial (IA) gana terreno surgen múltiples usos en favor de los consumidores, pero también ya se reportan casos en los que delicuentes clonan la voz de personas para fingir secuestros, emular figuras públicas o estafar a las víctimas.



Ups...

Nuestro sitio no es visible desde este navegador.

Te invitamos a descargar cualquiera de estos navegadores para ver nuestras noticias: