¡Los delincuentes pueden robarte la voz fácilmente!

Imagen creada con IA que escenifica la clonación de voz. Foto Yahoo

 

Por Ángel Han

Las falsificaciones de voces generadas por inteligencia artificial son cada vez más comunes y de alto perfil : a principios de este mes, el Secretario de Estado Marco Rubio se convirtió en una víctima, con una falsificación profunda de su voz que supuestamente contactó a ministros de Relaciones Exteriores, un gobernador de los EE. UU. e incluso a un miembro del Congreso.

Una investigación reciente de Consumer Reports reveló que es fácil usar aplicaciones disponibles en el mercado para crear una falsificación profunda de tu voz (o la de un familiar o una celebridad) con inteligencia artificial sin tu permiso ni consentimiento. Estas falsificaciones abren la puerta a estafas de impostores que vacían miles de millones de dólares de las cuentas bancarias de los estadounidenses cada año.

Sorprendentemente, no existe ninguna ley federal que prohíba específicamente falsificar tu voz sin tu permiso. La Comisión Federal de Comercio prohíbe hacerse pasar por funcionarios gubernamentales como Rubio o por empresarios, pero no por estadounidenses individuales.

¡Únete a nosotros para exigir a la FTC que extienda las protecciones contra las falsificaciones de voz de IA a ti y a tu familia! Entregaremos nuestra petición pronto y queremos demostrar cuántos estadounidenses desean protección real contra la dañina inteligencia artificial.

Firma la petición »

Los deepfakes de voz con IA se pueden usar en estafas de impostores, donde un abuelo o padre recibe una llamada desesperada de alguien que dice ser un familiar que necesita dinero para salir de un apuro. También se usan en estafas de inversión, donde se hace creer que celebridades como Tom Hanks y Dolly Parton respaldan una oportunidad financiera específica.

Analizamos seis aplicaciones populares de clonación de voz y descubrimos que con varias de ellas sería fácil crear voces deepfake de personas sin su conocimiento usando breves fragmentos de audio en redes sociales. Cuatro de las aplicaciones solo requieren que los usuarios marquen una casilla para confirmar que tienen el derecho legal de clonar la voz.

El año pasado, entró en vigor una norma de la FTC que prohíbe la suplantación de identidad de empresas o funcionarios gubernamentales para prevenir estafas y otorga a la agencia herramientas de cumplimiento más sólidas para perseguir a los delincuentes. La FTC propuso extender estas protecciones a la suplantación de identidad de todos los estadounidenses, ¡pero nunca lo logró!

Únase a nosotros para pedirle a la FTC que proteja a su familia de las estafas de falsificación de voz. Nadie debería ser víctima de una falsificación de voz sin su conocimiento o consentimiento.

Pronto entregaremos nuestra petición, así que comparte nuestro video de Facebook con tus amigos y familiares para que puedan añadir sus nombres. También puedes consultar nuestra historia de CR, que incluye consejos para evitar las estafas de voz falsa.

*Ángel Han
Informes del consumidor

 

Artículos Relacionados