Home
>
Sabueso
>
Te Explico
>
DeepFakes y desinformación: el reto de detectar audios ‘falsos’ en un proceso electoral
DeepFakes y desinformación: el reto de detectar audios ‘falsos’ en un proceso electoral
Imagen de Thomas Breher en Pixabay
10 minutos de lectura
DeepFakes y desinformación: el reto de detectar audios ‘falsos’ en un proceso electoral
Identificar audios falsos no es sencillo, la tecnología aún no da soluciones definitivas y es necesario evaluar el contexto en que se distribuye el material y si hay intención de desinformar
26 de noviembre, 2023
Por: Samedi Aguirre
@ 
0

¿Qué tienen en común el cantante Bad Bunny, la activista Gretta Thunberg y el presidente de Rusia Vladimir Putin? Todas escucharon su propia voz en una grabación que nunca hicieron, resultado de una clonación con Inteligencia Artificial (IA). 

Eso fue lo que argumentó Martí Batres, jefe de Gobierno de la Ciudad de México,  luego de que se le atribuyó un audio en el que supuestamente se dieron instrucciones para manipular el proceso interno de Morena, para definir la candidatura del partido guinda en la capital del país. “Está producido con inteligencia artificial. No es real”, dijo Batres. 

En ese caso no se pudo determinar con certeza si el audio fue efectivamente creado con IA. Herramientas como AI Voice Detector no dieron un resultado concluyente, pues al analizar diferentes fragmentos del mismo audio el porcentaje de probabilidad de que fuera hecho con IA variaba desde un 26% hasta casi un 70%.

Captura AI Voice Detector
Captura AI Voice Detector

Para probar la herramienta grabamos un breve audio con nuestra voz natural. Nosotras estábamos seguras de su autenticidad, pero para la herramienta había un 55% de probabilidad de que fuera hecho con IA. 

Pese a la evolución de las tecnologías de detección “siempre va a haber un componente de tasa de error”, advierte  Manel Terraza, quien es CEO y fundador de loccus, una startup dedicada a la detección de voces sintéticas. 

Algunos especialistas en audio señalaban que aspectos como la pronunciación, la entonación y las pausas para respirar eran muestra de que el audio que se atribuyó a Batres no fue hecho con IA; pero para otras personas esos mismos elementos eran prueba de que el audio fue creado con tecnología y no pronunciado por el jefe de gobierno. 

De hecho, las autoridades de la Ciudad de México dedicaron varios minutos de una conferencia de prensa para demostrar lo sencillo que es recrear un audio con tecnología por menos de “200 pesos al mes”. Este mismo ejercicio fue replicado por usuarios de X, antes Twitter, que una y otra vez crearon audios donde una voz similar a la de Batres confiesa cosas, en algunos ejemplo con acento extranjero

Pese a ello, su difusión en redes sociales volcó la conversación en torno a la posible división dentro del mismo partido, todo ello días antes de que concluyera este proceso preelectoral. 

El audio de Batres también hizo evidente que el mal uso de la inteligencia artificial en procesos electorales puede dar lugar a la desinformación y la manipulación del discurso público. Algo que en otros países como Venezuela, Colombia y Estados Unidos  ya han experimentado en sus más recientes elecciones. 

En este sentido, verificadores como Cazadores de FakeNews en Venezuela o Colombia Check ya han descrito que determinar si un audio es real o falso no es tan sencillo y requiere de la combinación de elementos tecnológicos, pero sobre todo de la observación del contexto en el que se comparte. 

Es decir, además de emplear análisis con herramientas de detección, buscar detalles en el sonido y pedir el apoyo de especialistas en la materia; además, es necesario identificar qué narrativa reproduce, quién comenzó la difusión del material y a quién beneficia que se haga viral. 

¿Qué es la inteligencia artificial? 

La inteligencia artificial o IA puede definirse como un área de la informática “que lo que busca es crear sistemas que puedan realizar actividades que generalmente solo eran atribuidas a los humanos, pero que ahora se pueden hacer a través de estos sistemas”, según nos dijo Paul Aguilar coordinador de seguridad digital en socialTIC, una organización sin fines de lucro que se dedicada a la investigación y formación de la tecnología digital para fines sociales.

Existen diferentes tipos de IA, pero la que se utiliza para crear contenido como fotos, imágenes, texto o audio es la inteligencia artificial generativa. Esta tecnología permite crear este tipo de contenido con modelos que le permiten aprender o copiar un conjunto de datos de un contenido creado por personas. Es decir, la IA copia o imita algo que un ser humano ya había hecho. Hablar, por ejemplo. 

Los audios deepfakes son precisamente audios muy similares o idénticos a la voz de una persona y que se pueden generar porque se entrenó un sistema de inteligencia artificial para clonar o aprender la voz de una persona.

Entonces, en palabras de Paul Aguilar, cuando hablamos de inteligencia artificial y de audios deepfakes nos referimos a “sistemas que aprenden a imitar la voz de una persona para poder generar audios a partir de de esta imitación”.

¿Cómo se hace un audio falso?

Lo primero que tenemos que saber es que se puede usar IA para crear audios desde cero, o para modificar audios reales, según explicó a El Sabueso Manel Terraza.

Él explica que para clonar una voz, sin consentimiento, basta con tomar muestras de audios de la persona y pasarlos por un software capaz de imitar la voz y decir lo que se le pida.  

“Este es el problema principal de riesgo en el mundo de la desinformación porque cualquiera puede ir y tomar el audio de un video de un político y hacer un clon de una voz”, advierte Terraza, quien agrega que existen modelos de IA con los que se puede hacer pasar la voz de una persona como si fuera de otra en tiempo real. Es decir, puede clonarse una voz mientras se sostiene una conversación. 

Tal y como le sucedió en 2019 al director de una empresa de energía en Reino Unido. El ejecutivo recibió una llamada de quien pensó era un directivo de la misma compañía que le pidió transferir 243 mil dólares, se hizo la transferencia según lo indicado pero resultó ser un plan para estafar a la empresa mediante el uso de IA.  

De hecho, Terraza señala que hoy en día hay muchas herramientas para clonar voz sin necesidad de tener ningún tipo de habilidad técnica. “Tan fácil como entramos en Facebook. Y esa facilidad es el punto principal por el cual existe un riesgo tan grande de que se use de forma fraudulenta”, señala.

O tan sencillo como navegar por TikTok, donde creadores de contenido muestran una y otra vez cómo crear audios con Inteligencia artificial y hasta un paso a paso de cómo el creador de FlowGPT clona las voces de los artistas como Bad Bunny para crear álbumes completos con Inteligencia Artificial. 

Nosotros, por ejemplo, encontramos una app que invita a los usuarios a crear audios para imitar a sus personajes favoritos por tarifas desde 120 pesos (7 dólares) al mes. En algunos de esos modelos se puede solicitar que la voz reproduzca una emoción como felicidad o enojo, e incluso se cuenta con todo un catálogo que va desde caricaturas hasta youtubers.

Eleven Labs por su parte tiene una herramienta para generar audios de cualquier texto que se le indique, usando un enorme catálogo de voces que incluye una “dulce joven británica”, un “hombre autoritario de mediana edad” y una “mujer entusiasta con acento hindú”. Esta tecnología también puede clonar voces y traducirlas.

¿Cómo identificar deepfakes?

Paul Aguilar señala que el nivel de precisión, o de qué tan idénticos o similares son estos audios, va a depender del tipo de tecnología con el que se creó. Por lo que, en algunos casos, todavía se pueden detectar ciertas anomalías dentro de la voz. 

Por ejemplo, algunos tonos no corresponden a cómo la persona pronunciaría ciertas palabras, o la congruencia o el nivel de dicción que tiene el audio creado no suena exactamente igual a cómo lo haría la persona real. 

“Entonces se puede de alguna manera identificar o llegar a sospecharse que estos audios pudieran ser falsos, pero pues las herramientas están avanzando lo suficientemente rápido como para generar audios más reales o más cercanos a  la voz de de una persona”, y por lo tanto más difícil de identificar. 

Manel Terraza coincide, pues dice que los modelos más avanzados de síntesis de voz te permiten replicar respiraciones y pausas como las que tiene la persona que queremos imitar. Así que a medida que se van sofisticando las voces sintéticas esas diferencias son menos obvias.

“Al día de hoy prácticamente es imposible diferenciar  para una persona una voz sintética buena de una real, y por lo tanto el problema de la detección es cada vez más complejo y requiere también de tecnología”, señala Terraza. 

El especialista también explica que las tecnologías de detección lo que hacen es dar una probabilidad de que ese audio sea natural o creado con IA, pero su efectividad también depende de aspectos como el volumen, la duración, y qué tanto ruido ambiental hay. Por lo que siempre habrá posibilidad de que el resultado no sea correcto. 

Terraza señala con el perfeccionamiento de este tipo de tecnología de generación de contenido, la única forma de tener una aproximación de si algo es real o es clonado es utilizando herramientas de detección basadas en inteligencia artificial es decir, “luchar con las mismas armas”.  

¿Qué herramientas existen para identificar audios?

Existen proyectos como  AntiFake, que buscan prevenir la generación de deepfakes usando IA para modificar los audios – sin afectar como lo escuchamos los humanos– y que estos no puedan ser imitados por otras IA. 

También nos encontramos con una herramienta gratuita de ElevenLabs que precisamente busca tratar de ayudar a los usuarios a identificar los audios creados con IA, especialmente los que fueron generados con su misma tecnología. 

Como ya mencionamos, otra de las herramientas que hemos encontrado es AI Voice Detector, pero es de paga. Al igual que el nuevo desarrollo de Loccus.ia.

Probamos estas últimas tres con un audio generado a partir de un texto con la herramienta de ElevenLabs, una grabación de mi propia voz, y el audio  que se le atribuyó a Batres, aunque él lo negó. 

Tanto ElevenLabs como Loccus acertaron a determinar que la grabación hecha con mi propia voz era una voz humana. Pero AI Voice Detector se equivocó, y señaló que había 55% de probabilidad de que fuera hecha con IA. 

como-verificar-audios-falsos-2

En el caso del audio que creamos con IA, las tres herramientas detectaron que se trataba de un audio fabricado. 

como-verificar-audios-falsos-3

En el caso del audio viral que se atribuyó a Batres –del que no tenemos certeza de su origen– ElevenLabs determinó un 98% de probabilidades de que fuera hecho con IA; AI Voice Detector señaló un porcentaje de entre 26 y 70% creado con IA; mientras que Loccus determinó un porcentaje de entre 5% y 25% creado con voz natural. Es decir, más del75% de probabilidad de que fuera hecho con IA. 

Entonces las tres herramientas acertaron al detectar la voy creada con IA, solo dos acertaron a identificar un audio con voz natural, y dos de tres coinciden en que el audio viral de Batres fue hecho con IA. 

¿Consejos para no caer en desinformación con audios falsos?

Paul Aguilar recomienda identificar el contexto del audio para saber si corresponde a algo que la persona podría o no haber dicho. También recomienda identificar la calidad del sonido o la consistencia vocal.

La tercer recomendación de Aguilar es verificar la fuente de información para saber si quien está publicando o filtrando este audio es confiable, o alguien de quien se podría sospechar que tal vez está generando esta información o falsificándola.

Aguilar dice que hay otras técnicas más especializadas, pero poco accesibles. Pues se requieren de herramientas especializadas para ingeniería de audio en donde se hace un análisis espectral del sonido, por ejemplo. 

Ante este panorama, para Terraza hay que poner en duda todo lo que no te estén diciendo cara a cara, sobre todo el contenido especialmente incendiario. Los reenvíos masivos de cosas también te pueden indicar que un audio fue creado para desestabilizar o causar polémica. 

¿Existe una legislación para los deepfakes? 

César Avilés, investigador del Instituto Belisario Domínguez, nos explicó que “explícitamente no existe una disposición en la legislación electoral que atiende específicamente esta problemática” de la desinformación generada con IA. 

Sin embargo, el especialista señala que sí existe una regulación que sanciona las calumnias, el daño a la honorabilidad de las personas, el uso de la violencia política de género, entre otras conductas que podrían entrar en el mal aprovechamiento de esta herramienta tecnológica. 

Luego del audio que Martí Matres argumentó fue creado con Inteligencia Artificial, el diputado morenista Miguel Torruco propuso una reforma al código penal para sancionar a quien use IA para generar daño o perjuicio a la imagen o reputación pública de las personas.

Avilés señala que es positivo que a partir de ello se capte la atención de las y los tomadores de decisiones para poner manos en la materia, pero es necesario no perder de vista que  se trata de un fenómeno mucho más complejo que necesita una legislación transversal. 

“Apenas ahorita a nivel federal el Congreso está poniendo atención en el fenómeno como tal sobre qué implica la inteligencia artificial, una tecnología sumamente disruptiva que apenas estamos conociendo sus aprovechamientos, pero también cuáles son las distorsiones y las problemáticas que podrían afectar los derechos de las personas”, advierte Avilés. 

Lo que hacemos en Animal Político requiere de periodistas profesionales, trabajo en equipo, mantener diálogo con los lectores y algo muy importante: independencia
Tú puedes ayudarnos a seguir.
Se parte del equipo
Suscríbete a Animal Político, recibe beneficios y apoya el periodismo libre.
Etiquetas:
Audio falso
elecciones
Herramientas verificación
Inteligencia Artificial
image
La historia detrás de “I Will Survive”, el éxito de Gloria Gaynor que se convirtió en un himno
7 minutos de lectura
La historia detrás de “I Will Survive”, el éxito de Gloria Gaynor que se convirtió en un himno
Identificar audios falsos no es sencillo, la tecnología aún no da soluciones definitivas y es necesario evaluar el contexto en que se distribuye el material y si hay intención de desinformar
25 de febrero, 2024
Por: BBC News Mundo
0

Podría considerarse el himno ideal tras una ruptura dolorosa, pero en realidad el origen de I Will Survive, la mítica canción de Gloria Gaynor, no tiene nada que ver con el amor.

Las canciones pop siempre se basan en estribillos pegadizos para atrapar al oyente; lo vemos desde los Beatles hasta Taylor Swift. Pero pocas canciones atrapan con la misma seguridad con que lo hace la obra maestra de Gloria Gaynor, lanzada en 1978.

La canción marcó tanto la carrera de la cantante que es el título de un nuevo documental sobre la vida de la ahora octogenaria: Gloria Gaynor: I Will Survive.

“Esa canción es mi historia”, dijo Gaynor en una entrevista reciente con The Independent.

Su interpretación vocal es emotiva. Y la letra, poderosa. Si al principio creemos que habla del miedo (“First I was afraid, I was petrified”, “Al principio tenía miedo, estaba petrificada”), la canción luego nos revela que en realidad habla de fuerza, empoderamiento y resiliencia.

“Creo que la razón por la que es tan querida es que tiene unos ritmos disco muy dinámicos”, dice Oliver Keens, DJ disco y columnista de The Independent.

Bestley, DJ y artista con un profundo conocimiento de la música disco, house y soul, apunta además que el ritmo medio de la canción es de 117 pulsaciones por minuto.

¿Qué significa esto? “Tiene una velocidad estupenda para bailar durante un buen rato”, ya que eleva el ritmo cardíaco de quien la baila en un modo similar a practicar un ejercicio ligero, explica el experto.

La influencia de la canción

I Will Survive no es sólo una canción querida, también es un hito.

Se incluyó en el Registro Nacional de Grabaciones, un catálogo de grabaciones sonoras “consideradas cultural, histórica o estéticamente significativas” por la Biblioteca del Congreso de Estados Unidos.

A pesar de tener 45 años, conserva un atractivo que abarca generaciones. Harry Styles, ídolo de la generación Z, hizo su versión en el festival de Coachella 2022 en Estados Unidos, y Madonna, icono para generaciones anteriores, lo cantará en su Celebration Tour, una gira que abarca toda su carrera.

Gloria Gaynor en una fotografía en blanco y negro durante una actuación.
Gaynor empezó a cantar en la década de los 60 y el éxito de I Will Survive llegó en 1979. Foto: Getty Images.

Aunque Gaynor anotó otros éxitos durante la era disco, sobre todo con su versión de 1974 de Never Can Say Goodbye de los Jackson 5, esta es su canción insignia.

El nuevo documental sobre su vida y carrera, que se proyectó en los cines de EE.UU. solo durante un día, el 13 de febrero, y que se espera tenga un estreno más amplio en breve, demuestra que definitivamente se ha ganado ese epíteto.

La película sigue los tenaces intentos de la cantante por grabar su primer álbum de gospel a mediados de los 70 –a pesar de que su representante le dijo que “nadie quería eso” de ella– y repasa los numerosos obstáculos personales que superó: desde un desafiante matrimonio durante 26 años con su ex manager, Lynwood Johnson, de quien se divorció en 2005 y a quien describe en la película como un “imán de mujeres”, al asesinato de su hermana en 1995.

Gaynor también cuenta que fue abusada sexualmente en varias ocasiones por la pareja de su madre cuando ella tenía 12 años y nuevamente a los 17 por el primo de su novio.

Gaynor comenzó a cantar profesionalmente a mediados de la década de 1960 como miembro de la banda de jazz-R&B The Soul Satisfiers, pero sólo logró el éxito internacional después de convertirse en solista y pasarse a la música disco en la década siguiente.

Cuando “I Will Survive” ascendió al número uno en las listas de sencillos de Estados Unidos y Reino Unido en 1979, se convirtió en su mayor éxito y en el más duradero.

En 1993, “I Will Survive” de Gaynor regresó al top 10 de Reino Unido después de que el remezclador Phil Kelsey le diera una actualización elegante para la era de la música house.

La versión disco original de Gaynor sigue siendo un emblema hasta el día de hoy, pero a lo largo de los años, decenas de artistas le han puesto su propio sello.

Cómo empezó todo

“I Will Survive” está tan arraigada a la cultura pop mundial que es sorprendente saber que inicialmente fue pensada como un tema desechable.

Cuando Gaynor lo grabó en 1978 se designó como la cara B de una canción entonces popular llamada “Substitute”, que había sido un éxito para la banda de rock sudafricana Clout.

El sello de Gaynor, Casablanca, pidió al compositor Freddie Perren que produjera una nueva versión disco y él aceptó con la condición de que también pudiera producir su cara B.

Gloria Gaynor en una actuación. Imagen en blanco y negro.
Al leer la letra de la canción, Gaynor vio su potencial porque era atemporal. Foto: Getty Images.

Cuando le mostró a Gaynor la letra de “I Will Survive”, una canción que había escrito con el también compositor Dino Fekaris, ella inmediatamente notó su potencial.

“Dije que la letra era atemporal”, reveló la cantante recientemente a la cadena estadounidense NPR.

También recordó haber dicho a sus colaboradores: “¿Cómo pueden poner este tema en la cara B?’ “’Bueno, ese es el trato que hicimos'”, le contestaron.

Gaynor estaba tan segura de que “I Will Survive” merecía una oportunidad adecuada que se la dio a Richie Kaczor, un DJ del club nocturno más influyente de Nueva York, Studio 54.

“Al público le encantó de inmediato. Pensé: “Esta es una canción de éxito, porque al público de Nueva York nada le encanta inmediatamente. Así que le di al DJ una pila de discos para que se los diera a sus amigos DJ”, le dijo Gaynor a la revista Forbes en 2020.

Muy pronto, “I Will Survive” resultó tan popular en las pistas de baile que el sello discográfico de Gaynor lo convirtió en cara A y escaló las listas de éxitos.

“I Will Survive” habla de una ruptura… laboral

Mientras dominaba la escena disco de Nueva York, a 80 millas, en Fire Island, un complejo de playa popular entre la comunidad LGTBQ+, la canción empezó a sonar.

Según la Sociedad de Preservación Histórica de Fire Island Pines , “se convirtió en uno de los himnos por excelencia del Orgullo Gay” en 1979 y “se ha mantenido firme como uno de los favoritos de los hombres homosexuales en todo el mundo”.

Más de 40 años después, en 2022, la revista Time Out la colocó en lo más alto de su lista de “50 canciones gay para celebrar el Orgullo durante todo el año “.

Es fácil ver por qué. Es una canción con un sentido dramático innato que siempre ha resonado entre los oyentes LGBTQ+. Frases desafiantes como “¿Pensaste que me desmoronaría? ¿Pensaste que me acostaría y moriría?” realmente toca la fibra sensible de cualquiera que tenga que luchar por su derecho a vivir como quiera.

“Es una canción sobre el empoderamiento y la autorrealización, y como la letra no menciona el género del cantante ni de la persona a la que le cantan, cualquiera puede identificarse con ella”, dice Bestley.

Puede que “I Will Survive” no tenga género, pero como la versión más famosa la canta Gaynor, también ha sido adoptada como un himno de empoderamiento femenino.

Es la historia de alguien que supera la angustia causada por su insensible ex y dice: “No soy esa personita encadenada que sigue enamorada de ti”.

Lo curioso es que, a pesar de lo que se piensa, la canción no trata sobre una ruptura sentimental… sino un revés profesional.

Gloria Gaynor en un escenario cantando.
Gaynor puso un video de ella lavándose las manos a ritmo de I will survive durante la pandemia. En la foto, durante una actuación en 2023. Foto: Getty Images.

Fekaris contó que la escribió después de ser despedido de su trabajo como redactor en Motown Records.

La letra trata claramente de seguir adelante después de una relación fallida, pero contiene un sentido más amplio de cruda resiliencia y Gaynor vertió su propia desgracia con su rugiente interpretación vocal.

Un hito que perdura

Sin duda, “I Will Survive” ha demostrado también tener una gran capacidad de adaptación a lo largo de los años.

El DJ y productor Eric Kupper recuerda en entrevista con BBC Culture los remixes que circularon durante la pandemia de 2020 como un “mensaje de empoderamiento”, después de que un vídeo de Gaynor lavándose las manos para desinfectárselas al ritmo de la canción se volviera viral.

Sin embargo, Kupper también cree que “I Will Survive” ha perdurado gracias a su gran calidad.

“Es una canción excelente y bien elaborada, tanto musical como líricamente, y (Gaynor) la interpreta con gran pasión”, subraya.

Independientemente de si estás en una situación como la que narra la canción o no, hay algo conmovedor e identificable en el disco de Gaynor: es una canción que te respalda cuando necesitas meterte en lo profundo y decir: ”Oh no, not I – I will survive”. Sobreviviré.

Línea gris
BBC

Recuerda que puedes recibir nuestras notificaciones. Descarga la última versión de la app y actívalas para no perderte nuestro mejor contenido.

Lo que hacemos en Animal Político requiere de periodistas profesionales, trabajo en equipo, mantener diálogo con los lectores y algo muy importante: independencia
Tú puedes ayudarnos a seguir.
Se parte del equipo
Suscríbete a Animal Político, recibe beneficios y apoya el periodismo libre.
Etiquetas:
Audio falso
elecciones
Herramientas verificación
Inteligencia Artificial