La inteligencia artificial (IA) es utilizada en la actualidad para varios fines provechosos para la humanidad. Educación, ciencia, medicina, tecnología y hasta en la industria del entretenimiento. Sin embargo, algunas personas se han apoyado de plataformas impulsadas por IA para objetivos más negativos.
Como muchos sabrán, existen programas de inteligencia artificial que sirven para generar voces en base a texto. Es decir, que podemos escribir alguna oración y la IA la convertirá en audio, por ejemplo, con voces de famosos. Esto se puede prestar para usos indebidos, como deepfakes.
Un deepfake es un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona. También llamados “medios sintéticos”, son tan convincentes a la hora de imitar lo real que pueden engañar tanto a las personas como a los algoritmos.
Esta práctica se puede prestar para contenidos perjudiciales como mensajes violentos y algunos usuarios de 4chan, una especie de Reddit japonés, están haciendo deepfakes con voces de famosos como Joe Rogan, Ben Sharpio y Emma Watson, dejando como resultados audios que pueden afectar a otras personas.
La denuncia de ElevenLabs
De acuerdo con un reporte publicado en el sitio web de Computer Hoy, ElevenLabs, una compañía fundada por ex empleados de Google y Palantir especializada en voces generadas por IA, denunció el uso de su herramienta beta para estos deepfakes.
“Fin de semana de locos. Gracias a todos por probar nuestra plataforma Beta. Aunque vemos que nuestra tecnología se aplica de forma abrumadora para un uso positivo, también vemos un número creciente de casos de uso indebido de clonación de voz”, expresó la empresa en un tuit.
Crazy weekend - thank you to everyone for trying out our Beta platform. While we see our tech being overwhelmingly applied to positive use, we also see an increasing number of voice cloning misuse cases. We want to reach out to Twitter community for thoughts and feedback!
— ElevenLabs (@elevenlabsio) January 30, 2023
Esta situación no solo afecta a ElevenLabs y los usuarios de sitios como 4chan, sino también la reputación de los famosos, que podrían terminar demandando a este tipo de plataformas.
Por ello, el laboratorio sugirió implementar algunas medidas de seguridad: “Si bien podemos rastrear cualquier audio generado hasta el usuario, nos gustaría abordar esto implementando medidas de seguridad adicionales”.
Estas medidas serían la verificación de información de pago o de identidad, derechos de autor de las voces, entre otras acciones.
Our current ideas:
— ElevenLabs (@elevenlabsio) January 30, 2023
(1) Additional account verifications to enable Voice Cloning: such as payment info or even full ID verification
(2) Verifying copyright to the voice by submitting sample with prompted text
(3) Drop Voice Lab altogether and manually verify each Cloning Request