Qué son los deepfakes y por qué se están convirtiendo en el nuevo porno de la venganza
close
Recibe noticias a través de nuestro newsletter
¡Gracias! Desde ahora recibirás un correo diario con las noticias más relevantes.
sync
Getty/BBC

Qué son los deepfakes y por qué se están convirtiendo en el nuevo porno de la venganza

Los famosos son sus principales víctimas, pero ahora, debido a los desarrollos tecnológicos cualquiera puede serlo. Los "deepfakes" pueden arruinar carreras y relaciones.
Getty/BBC
Por BBC Mundo
3 de mayo, 2018
Comparte

“Emma Watson” está desnuda, de rodillas en un sofá. Cerca, “Maisie Williams” está sentada con las piernas separadas. “Gal Gadot” está vestida de vaquera, realizando actos sexuales.

¿Dónde estamos? No en las oscuras profundidades de la fantasía de un adolescente, sino en el sitio web PornHub, donde las únicas diferencias entre la actriz de Hollywood Emma Watson y la falsa estrella del porno “Emma Watson” son unos pocos pixeles, varias capas de ropa y una falta total de consentimiento.

Bienvenidos al mundo de los deepfakes: un nuevo tipo de robo de identidad con clasificación X.

Los deepfakes son videos porno modificados utilizando tecnología de intercambio de caras a través de inteligencia artificial, por lo que el rostro del protagonista se reemplaza por la de otra persona.

Hace apenas seis meses, esto requería una codificación extremadamente compleja y un montón de tiempo libre.

Pero, ahora, una búsqueda en internet de “deepfake porn” arroja al menos 700.000 resultados. La tecnología explotó tan rápido —y ya es tan fácil de usar— que prácticamente cualquiera puede crear pornografía personalizada en unas 12 horas.

Las celebridades son las víctimas más populares de los deepfakes. De hecho, este tipo de falsificación de caras empezó en Hollywood.

Imagen de un videomontaje de Emma Watson.

BBC
Emma Watson es una de las actrices cuyo rostro su usó en el cuerpo de una actriz porno, como se ve en esta imagen.

“La tecnología para superponer caras de famosos en otras personas lleva años disponible para los efectos especiales”, dice Evgeny Chereshnev, director ejecutivo de la compañía de tecnología seguridad BiolinkTech.

Las fotos modificadas, por lo tanto, no son nada nuevo, pero la disponibilidad y nivel de realismo de los modernos deepfakes sí lo son.

Al alcance de cualquiera

Los deepfakes toman su nombre de un usuario de Reddit. El año pasado, “deepfakes” perfeccionó un algoritmo complejo para crear espeluznantes videos que parecen mostrar a las actrices Gal Gadot, Taylor Swift y Scarlett Johansson realizando actos pornográficos.

Aunque tu cerebro sabe que ninguna de ellas es la persona que hace eso, tus ojos sí parecen muy convencidos.

Después, en enero pasado, otro usuario de Reddit creó una app gratuita, llamada FakeApp, con un algoritmo incorporado que hace el intercambio de caras por ti.

Solo necesitarías una computadora potente (como las que se usan para trabajar con video), una unidad de procesamiento gráfico y suficientes imágenes de tu objetivo —lo que, gracias a las redes sociales, YouTube o incluso Linkedln no es demasiado complicado—, pero teóricamente cualquiera puede transformar a una estrella del porno en cualquier otra persona.

Actualmente, hay versiones básicas disponibles para cualquiera: por menos de US$30, Adobe puede proveer las herramientas para crear una copia digital de alguien, aunque se necesitaría un costoso software profesional para llegar al siguiente nivel.

Adobe VoCo, una especie de Photoshop para audio, permite incluso al usuario recrear la voz de alguien solo 20 minutos después de escucharla. Todavía está en etapa de investigación, pero otras compañías como Lyre Bird tienen software más básico ya disponible para su uso.

Ahora cualquiera puede reemplazar las caras de los actores porno con las de su amor platónico, por ejemplo. O tal vez alguien quiera vengarse de un ex y lo hace para acabar con su carrera o su nueva relación. O, de hecho, sabotear la carrera o relación de cualquier persona con la que en ese momento se está enojado.

Así que, de repente, no son solo las celebridades (con su ejército de poderosos abogados) las que se pueden encontrar a sí mismas en las computadoras de alguien más. Puedes ser tú.

Porno de la venganza

La abogada Ann Olivarius, quien ha trabajado con víctimas del “porno de la venganza” dice que recibe llamadas de clientes que fueron víctimas del deepfaking.

“Es una gran preocupación para nosotros”, dice Olivarius. “Es realmente devastador para esas mujeres porque con nueva tecnología, puede parecer algo real. Lo que hay detrás es siempre un intento de herir y degradar“.

La abogada cree que el deepfaking forma parte del problema del porno de la venganza.

“Hay varios tipos de porno de la venganza ahí afuera”, dice. “Es un problema creciente, y se manifiesta en nuevas maneras”.

Deepfakes

Getty/BBC Three
Las celebridades tienen un ejército de abogados que las pueden ayudar a en temas como esta.

Mientras las celebridades pueden contar con abogados caros, y pueden, potencialmente, usar la ley de difamación para perseguir a los deepfakers (siempre y cuando puedan probar que la imagen causó, o puede causar, un daño grave a su reputación), para la gente común puede ser mucho más difícil emprender una acción.

En enero, un hombre australiano fue sentenciado a 12 meses de cárcel por usar Photoshop para superponer una imagen de la cara de su hijastra adolescente sobre imágenes de mujeres realizando actos sexuales, y ha habido casos similares en Reino Unido.

Para Luke Patel, un especialista en derecho a la intimidad, “el rápido ritmo de desarrollo de la tecnología hace que sea muy difícil que las leyes se mantengan al día y apoyar adecuadamente a las víctimas”.

En Europa, la implementación del Reglamento general de protección de datos, que entrará en vigor el 25 de mayo, incluye dos nuevas herramientas: el derecho a solicitar la eliminación de datos y el derecho al olvido.

Luke cree que podrían ayudar “a permitir que un individuo solicite la eliminación o eliminación permanente de sus datos personales (incluyendo imágenes) cuando no hay una buena razón para su publicación continua”, aunque cada caso se decidirá de forma individual.

“No es un derecho absoluto, pero el caso es más sólido si la imagen no está justificada y causa un sufrimiento considerable”. Aunque, continúa, “todavía son solo herramientas que pueden desplegarse cuando el daño ya está hecho“. No impedirán que suceda.

Teléfono móvil con imagen de mujer semidesnuda.

Getty Images
El desarrollo rápido de la tecnología difícil proteger adecuadamente a las víctimas.

¿Cómo detenerlo?

Una opción es que las plataformas de internet dejen de albergar deepfakes.

Reddit ya los prohibió, calificándolos como una forma inaceptable de “pornografía involuntaria”.

Pornhub afirmó en febrero que seguiría el ejemplo, pero si buscas ‘porno’ y ‘deepfakes’, los mejores resultados están en Pornhub.

BBC Three se puso en contacto con Pornhub para obtener una explicación, y recibió esta declaración de su vicepresidente, Corey Price: “El contenido no consensual no está permitido en nuestra plataforma, ya que infringe nuestros Términos de servicio”.

Sin embargo, se pueden contar al menos 20 videos, incluidos varios con celebridades, que claramente podemos asumir que no fueron consensuales.

Pornhub respondió que tienen una página de eliminación de contenido, donde las personas pueden “solicitar la eliminación de material no consensual. Tan pronto como se hace una solicitud, trabajamos para eliminar el contenido inmediatamente. También dependemos de nuestra comunidad y/o propietarios de contenido para marcar el contenido inapropiado”.

Crear deepfakes se está volviendo tan fácil que podría convertirse en un juego: trae fotos, bebidas y, en lugar de ver videos de YouTube, siéntate y crea pornografía robada.

“En un par de años, podrías ir a una tienda de aplicaciones pornográficas y comprar experiencias sexuales en realidad virtual con quien quieras”, dice Evgeny Chereshnev, de BiolinkTech.

Ya se pueden comprar muñecas sexuales increíblemente realistas. “Pronto —dice Evgeny— la tecnología podría permitirle a alguien robar tu identidad y pedir una muñeca sexual con tu cara”.

La idea de un futuro donde “tú” podrías existir en la computadora portátil de alguien, o donde se podrían crear imágenes “tuyas” para ser distribuidas maliciosamente es profundamente inquietante. Pero puede que ese futuro ya esté aquí.

Este artículo fue publicado originalmente en inglés en BBC Three


Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.

Lo que hacemos en Animal Político requiere de periodistas profesionales, trabajo en equipo, mantener diálogo con los lectores y algo muy importante: independencia. Tú puedes ayudarnos a seguir. Sé parte del equipo. Suscríbete a Animal Político, recibe beneficios y apoya el periodismo libre.

#YoSoyAnimal
Cuartoscuro

Fiscalía del Edomex dice que "verificará" en videos si sus elementos agredieron a mujeres en Ecatepec

La Fiscalía dijo que ha iniciado “los acercamientos respectivos” con las organizaciones civiles que tomaron las instalaciones, para entablar diálogo y atender sus inquietudes.
Cuartoscuro
11 de septiembre, 2020
Comparte

La Fiscalía del Estado de México aseguró que analizará videos del desalojo y detención de mujeres que ocupaban la Comisión de Derechos Humanos estatal (CODHEM) en Ecatepec, para “verificar” la actuación de sus elementos.

Esto, luego de que las mujeres detenidas denunciaron que algunas fueron brutalmente golpeadas y heridas, sin que ninguna autoridad del Estado se haya hecho responsable.

“Se ha iniciado un análisis de todo el material gráfico de los hechos referidos, mismo que ha sido difundido por diversas redes sociales y medios de comunicación, con el objetivo de verificar que la actuación del personal que tomó parte en esta acción operativa haya sido la correcta”, expuso la Fiscalía tras confirmar la liberación de 11 mujeres y dos hombres que participaban en la protesta.

En un comunicado, expuso que las 13 personas, que estaban acompañadas por siete menores de edad, fueron detenidas y trasladadas, “por seguridad” al Centro de Justicia de Atizapán.

De acuerdo con la versión oficial, un grupo de personas que exigían la liberación de las detenidas llegaron a dicho Centro de Justicia de Atizapán.

“Cabe señalar que también ha sido iniciado un análisis respecto a los daños causados en este Centro de Justicia, así como las lesiones que presenten los servidores públicos de esta Institución, con motivo de estos hechos”, agregó la Fiscalía.

Entérate: Colectivas toman oficinas de CNDH en Ecatepec y protestan en instalaciones de otros 4 estados

La propia Fiscalía dijo que ha iniciado “los acercamientos respectivos” con las organizaciones civiles que tomaron las instalaciones, para entablar diálogo y atender sus inquietudes.

Pese a los videos que muestran golpes con puño cerrado, ahorcamiento y que lanzaron objetos y que policías rompieron los cristales del automóvil donde se retiraban del lugar periodistas y fotógrafas, la Fiscalía rechazó, en un primer momento, que sus elementos hayan hecho uso de fuerza excesiva.

“Esta Institución rechaza que haya sido utilizada fuerza desmedida y se haya llevado a cabo algún procedimiento ilegal en contra de alguna persona durante esta movilización”, señala en el comunicado.

Lo que hacemos en Animal Político requiere de periodistas profesionales, trabajo en equipo, mantener diálogo con los lectores y algo muy importante: independencia. Tú puedes ayudarnos a seguir. Sé parte del equipo. Suscríbete a Animal Político, recibe beneficios y apoya el periodismo libre.

#YoSoyAnimal
close
¡Muchas gracias!

Estamos procesando tu membresía, por favor sé paciente, este proceso puede tomar hasta dos minutos.

No cierres esta ventana.