Las principales IA de clonación de voz abren la puerta a las suplantaciones: no verifican si el usuario tiene permiso para usarla

Publicado el 10/03/2025 por Diario Tecnología
Artículo original

Las principales IA de clonación de voz abren la puerta a las suplantaciones: no verifican si el usuario tiene permiso para usarla

En los últimos años, la tecnología de clonación de voz basada en IA ha evolucionado a pasos agigantados: tan solo unos segundos de muestra de audio permiten replicar la voz de cualquier persona con una fidelidad sorprendente. Eso, claro está, también plantea serias preocupaciones en cuanto a la seguridad y el uso indebido... dado que la mayoría de las plataformas que ofrecen estos servicios carecen de salvaguardas efectivas para evitar su abuso.

Medidas de seguridad ineficaces (por decir poco)

Una investigación reciente de la asociación de consumidores estadounidense Consumer Reports ha analizado seis de las principales plataformas de clonación de voz disponibles para el gran público, y la conclusión ha sido que cinco de ellas tienen medidas de seguridad débiles y fácilmente eludibles. Las empresas evaluadas fueron Descript, ElevenLabs, Lovo, PlayHT, Resemble AI y Speechify.

Cuatro de estas compañías (Speechify, PlayHT, Lovo y el líder del sector, ElevenLabs) sólo requieren que los usuarios marquen una casilla en la que afirman tener derecho a clonar la voz, sin ningún mecanismo real de verificación.

Resemble AI, por su parte, exige que la persona grabe audio en tiempo real en lugar de subir un archivo... aunque este requisito fue fácilmente burlado por los investigadores al reproducir un audio pregrabado.

La única empresa que implementa una medida de seguridad algo más robusta es Descript, que exige la grabación de una declaración de consentimiento específica, aunque esto también podría ser vulnerado utilizando otro de los servicios de clonación de voz anteriores.

Aumentan los casos de uso lícito

Es importante dejar claro que los usos potenciales de la clonación de voz con IA no son exclusivamente negativos: existen aplicaciones legítimas y beneficiosas, como la generación de audiolibros, la ayuda a personas con discapacidades del habla y la traducción de contenido a múltiples idiomas manteniendo la identidad vocal del hablante. No obstante, el mal uso de esta tecnología representa una amenaza creciente.

Uno de los casos más notorios de abuso en los Estados Unidos ocurrió durante su último proceso de primarias, cuando se difundieron llamadas automáticas (robocalls) con una imitación de la voz de Joe Biden instando a los votantes a no participar en los comicios. El artífice de este engaño fue sancionado con una multa de seis millones de dólares, y la Comisión Federal de Comunicaciones (FCC) prohibió posteriormente las llamadas automatizadas generadas por IA.

Las estafas telefónicas también se han visto reforzadas con esta tecnología. En la modalidad conocida como 'estafa del abuelo', los delincuentes llaman a personas mayores haciéndose pasar por un familiar en peligro para pedir dinero de urgencia. Esta estafa existe desde hace tiempo, pero la Comisión Federal de Comercio de EE.UU. ha advertido que los timadores empiezan a recurrir a la IA para hacer que las voces suenen más convincentes.

Incluso en el ámbito de la industria del entretenimiento, los abusos han sido evidentes. Hace ya dos años, una canción que utilizaba voces clonadas de los artistas Drake y The Weeknd se volvió viral en redes sociales tras ser lanzada sin su consentimiento.

Regulación y políticas de las compañías

A pesar del creciente uso indebido de la clonación de voz con IA, los defensores de los consumidores ven aún la regulación como insuficiente: aunque la FTC estadounidense ha aprobado una norma que prohíbe la suplantación de identidades gubernamentales y empresariales mediante IA, aún no ha logrado extender esta prohibición a la imitación de individuos.

Algunas empresas tecnológicas han optado por restringir motu proprio el acceso a sus herramientas de clonación de voz por temor a su mal uso. Microsoft, por ejemplo, ha decidido no lanzar públicamente su tecnología VALL-E 2, y OpenAI ha limitado el acceso a su motor de síntesis de voz por razones similares.

Frente a eso, algunas compañías continúan promoviendo el uso fraudulento de esta tecnología: el informe de Consumer Reports revela que PlayHT y Speechify proponen las "bromas telefónicas" como un ejemplo de utilidad de sus herramientas de clonación de voz.

Imagen | Marcos Merino mediante IA

En Genbeta | Clonaron su voz con IA y usaron un vídeo suyo de YouTube: así fue como el CEO de esta famosa empresa fue víctima de un deepfake

utm_campaign=10_Mar_2025"> Marcos Merino .