¡Los ladrones pueden clonar tu voz fácilmente!

Foto: welivesecurity.com

ML Noticias

Por Angel Han

Nuestra reciente investigación de CR descubrió que es fácil usar aplicaciones para crear una falsificación de voz artificial (de tu propia voz o la de un familiar o una celebridad) y usar esa falsificación para estafar a otros.

Estamos solicitando a la Comisión Federal de Comercio (FTC) que ilegalice la falsificación de voz sin su consentimiento, y ya contamos con casi 35,000 firmas. ¿Podrías colaborar para presionar a la FTC y proteger a los consumidores de estas falsificaciones de voz con IA?

Y tómate un momento para ver y compartir nuestro nuevo video sobre lo fácil que es crear un deepfake:

Mira/comparte en Facebook

Mira/Comparte en Instagram

Gracias por ser parte clave de este importante esfuerzo para proteger su privacidad y su dinero.

Foto: canal12web.com

La inteligencia artificial ha evolucionado tan rápidamente que las aplicaciones que clonan voces pueden imitar tan bien tu voz (o la de un pariente cercano o incluso la de una celebridad como Tom Hanks) que es más difícil que nunca distinguir qué es real.

Y la última investigación de Consumer Reports sobre seis aplicaciones populares de clonación de voz en el mercado descubrió que es fácil crear voces falsas de otras personas sin su conocimiento o consentimiento , lo que abre la puerta a «estafas de impostores» y otros fraudes que ayudaron a drenar alrededor de $3 mil millones de las cuentas bancarias de los estadounidenses en 2023.

Pero si usted cree que existe una ley federal que prohíbe específicamente que alguien haga una falsificación de su voz con una inteligencia artificial sin su consentimiento, piénselo otra vez: la Comisión Federal de Comercio ha prohibido la suplantación de funcionarios gubernamentales y empresas, pero no de estadounidenses individuales.

Únase a nosotros para instar a la FTC a extender estas protecciones a todos los estadounidenses y para que las autoridades investiguen las aplicaciones de clonación de voz y exijan responsabilidades a estas empresas si perjudican a los consumidores.

Firma la petición

Los deepfakes de voz de IA se pueden usar en estafas de abuelos, donde una persona mayor recibe una llamada frenética de un impostor que dice ser familiar y dice necesitar dinero urgentemente para salir de un apuro. También se usan en estafas de inversión, donde se hace creer que celebridades como Tom Hanks, Elon Musk y Dolly Parton están promocionando una oportunidad financiera específica.

Analizamos seis aplicaciones populares de clonación de voz , que se promocionan como herramientas para personas con discapacidad o para la traducción de audio de diferentes idiomas, y descubrimos que con varias de ellas sería fácil crear voces deepfake de personas sin su consentimiento utilizando clips de audio disponibles públicamente en sitios como Facebook y YouTube. Cuatro de las aplicaciones solo requieren que los usuarios marquen una casilla que confirma que tienen el derecho legal de clonar la voz.

El año pasado, entró en vigor una norma de la FTC que prohíbe la suplantación de identidad de empresas o entidades gubernamentales y otorga a la agencia herramientas de cumplimiento más sólidas para perseguir a los estafadores. La FTC propuso extender estas protecciones a la suplantación de identidad de todas las personas, pero nunca concluyó la labor.

Únase a nosotros para pedirle a la FTC que extienda estas protecciones a todos los estadounidenses y que exija cuentas a las empresas que clonan voces si no hacen lo suficiente para proteger a los consumidores.

Firma la petición

Puedes ayudarnos a difundir el mensaje compartiendo nuestra petición con amigos y familiares, así como nuestra historia que incluye consejos sobre cómo evitar estafas de voces falsas.

 

 

 

 

 

 

 

 

 

 

 

 

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Artículos Relacionados