Nuestra reciente investigación de CR descubrió que es fácil usar aplicaciones para crear una falsificación de voz artificial (de tu propia voz o la de un familiar o una celebridad) y usar esa falsificación para estafar a otros.
Estamos solicitando a la Comisión Federal de Comercio (FTC) que ilegalice la falsificación de voz sin su consentimiento, y ya contamos con casi 35,000 firmas. ¿Podrías colaborar para presionar a la FTC y proteger a los consumidores de estas falsificaciones de voz con IA?
Y tómate un momento para ver y compartir nuestro nuevo video sobre lo fácil que es crear un deepfake:
Gracias por ser parte clave de este importante esfuerzo para proteger su privacidad y su dinero.
Foto: canal12web.com
La inteligencia artificial ha evolucionado tan rápidamente que las aplicaciones que clonan voces pueden imitar tan bien tu voz (o la de un pariente cercano o incluso la de una celebridad como Tom Hanks) que es más difícil que nunca distinguir qué es real.
Y la última investigación de Consumer Reports sobre seis aplicaciones populares de clonación de voz en el mercado descubrió que es fácil crear voces falsas de otras personas sin su conocimiento o consentimiento , lo que abre la puerta a «estafas de impostores» y otros fraudes que ayudaron a drenar alrededor de $3 mil millones de las cuentas bancarias de los estadounidenses en 2023.
Pero si usted cree que existe una ley federal que prohíbe específicamente que alguien haga una falsificación de su voz con una inteligencia artificial sin su consentimiento, piénselo otra vez: la Comisión Federal de Comercio ha prohibido la suplantación de funcionarios gubernamentales y empresas, pero no de estadounidenses individuales.
Los deepfakes de voz de IA se pueden usar en estafas de abuelos, donde una persona mayor recibe una llamada frenética de un impostor que dice ser familiar y dice necesitar dinero urgentemente para salir de un apuro. También se usan en estafas de inversión, donde se hace creer que celebridades como Tom Hanks, Elon Musk y Dolly Parton están promocionando una oportunidad financiera específica.
Analizamos seis aplicaciones populares de clonación de voz , que se promocionan como herramientas para personas con discapacidad o para la traducción de audio de diferentes idiomas, y descubrimos que con varias de ellas sería fácil crear voces deepfake de personas sin su consentimiento utilizando clips de audio disponibles públicamente en sitios como Facebook y YouTube. Cuatro de las aplicaciones solo requieren que los usuarios marquen una casilla que confirma que tienen el derecho legal de clonar la voz.
El año pasado, entró en vigor una norma de la FTC que prohíbe la suplantación de identidad de empresas o entidades gubernamentales y otorga a la agencia herramientas de cumplimiento más sólidas para perseguir a los estafadores. La FTC propuso extender estas protecciones a la suplantación de identidad de todas las personas, pero nunca concluyó la labor.
Puedes ayudarnos a difundir el mensaje compartiendo nuestra petición con amigos y familiares, así como nuestra historia que incluye consejos sobre cómo evitar estafas de voces falsas.
El ataúd a punto de ser colocado en el carro fúnebre camino a la Basílica de Santa María la Mayor. Foto captura de pantalla
Redacción ML Noticias
Desde muy temprano de este s...
Luis Pacheco y Héctor Chaclán esposados. Foto: fger.org
Las Américas, 24 de abril de 2025. Las organizaciones firmantes expresamos nuestra profunda alarma y rechazo ante la reci...
Foto cortesía
Ese es el himno femenino que redefine el despecho.
Miami, FL – 23 de abril de 2025 – En un mundo donde el despecho se canta con lágrimas y botellas vacías, tre...