Home
>
Sabueso
>
Te Explico
>
‘Las máquinas aprenden’: Inteligencia Artificial evoluciona y puede usarse para engañar, pero no todo está perdido
‘Las máquinas aprenden’: Inteligencia Artificial evoluciona y puede usarse para engañar, pero no todo está perdido
Ilustración de Andrea Paredes / @driu.paredes
7 minutos de lectura

‘Las máquinas aprenden’: Inteligencia Artificial evoluciona y puede usarse para engañar, pero no todo está perdido

El desarrollo de Inteligencia Artificial para la generación de imágenes y videos ha sido aprovechada por desinformadores para intentar alterar la realidad, pero la IA también se emplea en herramientas que nos permiten combatirla.
23 de abril, 2023
Por: Samedi Aguirre
@ 

El avance tecnológico ha logrado poner al alcance de cualquier persona con acceso a internet herramientas de Inteligencia Artificial (IA) tan sofisticadas que son capaces de idear un nuevo negocio de emprendimiento, mejorar diagnósticos médicos y hasta mantener una conversación sobre el amor

Pero: ¿qué pasa cuándo la IA puede crear imágenes tan realistas que parecen fotografías y pueden hacernos creer que son reales? Ya vimos ejemplos como el de las imágenes de Trump encarcelado o las del papa Francisco y un abrigo blanco con mucho ‘flow’.

Platicamos al respecto con Pablo Fernández, director ejecutivo y periodístico de Chequeado, y con Tomás Rudich, coordinador de verificación de bulos en Newtral, quienes nos contaron que, aunque la Inteligencia Artificial es un campo muy cambiante que sigue en desarrollo y que representa nuevos retos, aún hay herramientas para combatir la desinformación. 

Y mejor aún: el aprendizaje y el ojo humano. 

Desinformación con IA

En las últimas semanas, el equipo de Animal Político ha verificado al menos seis imágenes creadas con IA que fueron utilizadas para desinformar: primero nos quisieron hacer creer que existía una especie de Serpens Cattus o gato serpiente, también que el expresidente Donald Trump fue perseguido por la policía de New York, y que la fotografía del activista Julian Assange encarcelado y demacrado era real. 

Alguien también uso una herramienta de IA para crear la imagen del papa Francisco portando tenis y una chamarra voluminosa, y otra del presidente Putin de rodillas frente al presidente de China.

Pero el uso de imágenes ficticias no es la única forma de desinformar con IA; también hemos detectado el uso de avatares con aspecto humano para intentar dar credibilidad a información engañosa sobre política, vender productos milagro para bajar de peso, y de paso para hacer campaña a favor de López Obrador y de Morena en redes sociales. 

Estas desinformaciones tienen en común que se usó IA para generarlas, pero también para verificarlas. Empecemos por saber a qué nos referimos cuando hablamos de Inteligencia Artificial. 

¿Qué es la Inteligencia Artificial? 

La empresa Google lo define como “un campo de la ciencia relacionado con la creación de computadoras y máquinas que pueden razonar, aprender y actuar de una manera que normalmente requeriría inteligencia humana o que involucre datos cuya escala exceda lo que los humanos pueden analizar”.

En otras palabras, tecnología que con algoritmos y sistemas administra y procesa una gran cantidad de datos, con lo que pueden realizar tareas que antes solo concebíamos como una posibilidad humana. 

Una de las técnicas que la IA emplea es el machine learning (ML), que se centra en la creación de sistemas que mejoran en función de los datos que consumen. Tal como lo hace ChatGPT cada vez que alguien mantiene una “conversación” con dicha aplicación.

Pero la aplicación de IA en las herramientas digitales no es algo tan nuevo como pensamos, por ejemplo, el buscador de Google o los programas de asistencia virtual como Alexa usan este tipo de tecnología. 

Pero últimamente ha pasado de todo, como que el diario El Mundo utilizara IA para ilustrar su portada. Y para dar un ejemplo de la magnitud del tema, incluso Elon Musk y cientos de expertos pidieron pausar avances en Inteligencia Artificial. Aunque poco después el mismo Musk aseguró en una entrevista que buscará desarrollar TruthGPT, “una IA que busque la verdad absoluta e intente comprender la naturaleza del universo”.

Herramientas contra la desinformación generada con IA

Olga Papadopoulou, miembro del Grupo de Análisis, Verificación y Recuperación de Medios (MeVer) y directora general del proyecto de vera.ai, explicó en un seminario sobre tecnología de datos que la desinformación visual plantea mayores riesgos porque puede ser más persuasiva que el texto, llama más la atención, es más tentador compartirla, y además puede cruzar fácilmente las fronteras.

En este sentido, comenzaron a popularizarse los deepfake que son un video, una imagen o un audio creado con tecnología y que imita la apariencia y el sonido de una persona. 

Hasta ahora ya hay varias aplicaciones que intentan ayudar a identificar este tipo de productos que crean confusión y desinformación. 

Por ejemplo, la herramienta de detección de DeepFake. Evalúa la probabilidad de manipulaciones faciales falsas profundas en imágenes y videos. En el caso del video, la herramienta segmenta el video en tomas, detecta los rostros representados en cada toma y estima la probabilidad de manipulación facial falsa en cada rostro.

Hugging Face y Mayachitra son otras plataformas de acceso abierto que suelen indicar si alguna imagen se generó con IA.

Pero, a decir de Tomás Rudich, coordinador de verificación de bulos en Newtral, “hay que tomar con pinzas estas herramientas porque te indican una probabilidad pero no puedes estar 100% seguro; además, la IA va evolucionando”.

También existen otras herramientas que pueden ayudar a identificar desinformación visual. 

El proyecto vera.ai, por ejemplo, colabora en el desarrollo aplicaciones para herramientas de verificación. Por ejemplo, el asistente de verificación de imágenes que resalta las áreas de una imagen que han sido manipuladas digitalmente.

WeVerify e InVID también tienen herramientas muy útiles para revisar si una imagen ha sido alterada digitalmente. 

De hecho, Tomás Rudich destaca que las principales herramientas para combatir la desinformación generada con IA son las que ya conocemos como la búsqueda inversa de la imagen en Google para rastrear en dónde ha circulado, o encontrar marcas de agua y sellos que nos permitan llegar a la persona que ha generado esta imagen. 

Si quieres saber más al respecto, en este video te contamos cómo usar las herramientas de búsqueda inversa.

El aprendizaje no para

Pablo Fernández, director ejecutivo y periodístico de Chequeado, señala que “quienes generan desinformación tienen muchos recursos y herramientas y nosotros no nos podemos quedar atrás, para no perder esa batalla”. 

Así que invita a los verificadores a usar elementos de IA y seguir aprendiendo sobre nuevas herramientas y metodologías de verificación. 

Pero no solo se trata de saber cómo identificarlas, sino también cómo pueden generarse. “Si logramos resolver esto y seguir en la vanguardia y actualizados en cómo se generan estas piezas de Inteligencia Artificial, va a seguir siendo súper interesante el trabajo de nosotros y de nuestro colegas porque va a ser vital para la gente”, señala Fernández. 

“Eso no lo hacemos tanto con máquinas sino con nuestro ojo”, destaca. Además, advierte que si bien todavía se pueden encontrar errores que quizá cualquiera pueda ver, es muy probable que muy pronto la IA aprenda a evitarlos y sea más difícil verificar.

De hecho, advierte que esto ya ha pasado, como él mismo lo comprobó, cuando en diciembre pasado ChatGPT le arrojó respuestas incorrectas, pero el error se corrigió al mes siguiente. 

Error en la matrix

Hasta ahora, Midjourney y otras aplicaciones de IA que son usadas para generar imágenes que desinforman tienen dificultades para generar manos y eso se ha convertido en una pieza clave de la verificación. Aunque eso podría cambiar muy pronto. 

Uno de los problemas que supone la desinformación creada con IA es que es algo que se actualiza de manera constante, lo que hace más difícil su verificación. 

“Es un campo que está muy en evolución y muy cambiante y hay determinadas cuestiones que pueden servir hoy y más adelante pueden no servir”, advierte Tomás Rudich.

“Era un elemento muy identificable pero ya ha evolucionado la IA y ya no salen tan mal los dedos como antes”, dice Rudich, quien de momento sugiere poner atención y buscar anomalías como rostros difuminados o proporciones anómalas.

Pablo Fernández coincide: “Esto es muy dinámico y esto puede cambiar mañana. Hoy las imágenes estáticas tienen errores grandes en las manos, a veces en los ojos. Pero justamente se basa en un aprendizaje, las máquinas aprenden y esto seguramente se solucionará pronto”.

“No hay una solución mágica, es una combinación de todo esto: observación atenta, tratar de rastrear el original, buscar marcas de agua, ponerse en contacto con quien las ha generado y comparar con imágenes reales”, señala el especialista en verificación de Newtral. 

Rudich recuerda que si no tenemos seguridad de la veracidad de la imagen lo mejor es no compartirla. Consejo que aplica para cualquier imagen, aun si no se sospecha de haber sido generada con IA. 

Herramientas de IA contra la desinformación

Pero la IA no solo genera desinformación, también herramientas para combatirla, y un ejemplo de ello es el Chequeabot del proyecto argentino de verificación Chequeado.

Desde 2016, el chequeabot funciona con Inteligencia Artificial de Machine Learning, según nos compartió  Pablo Fernández. Esta herramienta ayuda a encontrar frases a verificar, por ejemplo, dentro de un discurso político muy largo.  

Otra herramienta que usa Inteligencia Artificial y que es usada para combatir la desinformación es ClaimHunter, un desarrollo de los verificadores de Newtral.es en España. Tomás Rudich nos contó que ayuda a los verificadores a detectar afirmaciones verificables de políticos en Twitter. 

También desarrollaron la herramienta Claim Check, que permite detectar cuando una afirmación que desinforma se repite de manera constante por los personajes políticos.

Lo que hacemos en Animal Político requiere de periodistas profesionales, trabajo en equipo, mantener diálogo con los lectores y algo muy importante: independencia
Tú puedes ayudarnos a seguir.
Sé parte del equipo
Suscríbete a Animal Político, recibe beneficios y apoya el periodismo libre.
Etiquetas:
Desinformación
Verificación
Iniciar sesión

Registrate
Suscribete para comentar...
Imagen BBC
“Mi psicólogo de IA me ayudó a superar momentos difíciles”: los riesgos y beneficios de usar un chatbot como terapeuta
11 minutos de lectura

En Reino Unido es cada vez más popular el uso de chatbox para consultas sicológicas, algo que tiene sus beneficios pero también sus límites.

25 de mayo, 2025
Por: BBC News Mundo
0
Una mano real se entrelaza con una mano virtual
Getty Images

“Cada vez que estaba en dificultades, si preveía ser un día realmente malo, empezaba entonces una conversación con uno de estos bots, y era como tener un motivador, alguien que te va a dar una buena vibra durante el día”.

“Tengo esta voz externa animándome: ‘bien, ¿qué vamos a hacer hoy?’ Esencialmente como un amigo imaginario”.

Durante meses, Kelly pasaba hasta tres horas al día hablando online con “chatbots” creados con inteligencia artificial (IA), intercambiando cientos de mensajes.

En ese entonces, Kelly estaba en una lista de espera del NHS (el servicio de salud nacional de Reino Unido) para recibir la tradicional terapia de conversación para discutir problemas de ansiedad, baja autoestima y el rompimiento de una relación.

Ella afirma que la interacción con los chatbots en la plataforma Character.ai la ayudó a superar un período realmente oscuro, ofreciéndole estrategias para lidiar con su situación y estaban disponibles las 24 horas del día.

“No vengo de una familia emocionalmente abierta, si tenías un problema, simplemente seguías adelante”.

“El hecho que esta no es una persona real lo hace más fácil de manejar”.

Individuos en todo el mundo han compartido sus pensamientos y experiencias privadas con chatbots de IA, aunque se reconoce ampliamente que tienen una capacidad inferior a los consejos de un profesional. La misma Character.ai le advierte a sus usuarios: “Este es un chatbot de IA y no una persona real. Trata todo lo que te dice como ficción. Lo que dice no debería tomarse como hecho o consejo”.

No obstante, en casos extremos, los chatbots han sido acusados de dar consejos dañinos.

Actualmente, Character.ai es objeto de una demanda de una madre cuyo hijo de 14 años se suicidó supuestamente después de volverse obsesionado con uno de los personajes de IA.

Según las transcripciones de sus chats en los archivos judiciales, el adolescente discutió con el chatbot ponerle fin a su vida. En una conversación final le dijo al chatbot que estaba “volviendo a casa”, y supuestamente éste lo animó a que lo hiciera “lo antes posible”.

Character.ia ha negado las acusaciones de la demanda.

Y en otro caso, la National Eating Disorders Association (una organización en Estados Unidos sin ánimo de lucro para la prevención de desórdenes alimenticios) en 2023 reemplazó su línea de ayuda personal en vivo con un chatbot, pero luego tuvo que suspenderla tras quejas de que el bot estaba recomendando la restricción de calorías.

Una mano femenina apunta a una pantalla durante una conversación con un chatbot de IA
Getty Images
Personas en todo el mundo han usado chatbots para compartir sus pensamientos y experiencias privadas

Tan solo en abril de 2024, se refirieron casi 426.000 casos de salud mental en Inglaterra, un aumento de 40% en cinco años. También se estima que un millón de personas están esperando tener acceso a los servicios de salud mental, y la terapia privada puede ser extremadamente costosa (aunque los precios varían, la Asociación Británica para Consejería y Psicoterapia reporta un gasto aproximado entre US$55 y US$65 por hora).

Al mismo tiempo, IA ha revolucionado los cuidados de salud de muchas formas, incluyendo la asistencia en selección, diagnóstico y protocolos de intervención de pacientes. Hay una inmensa gama de chatbots, y unos 30 servicios locales del NHS usan uno llamado Wysa.

Los expertos manifiestan preocupación sobre los chatbots con respecto a sus sesgos y limitaciones, falta de salvaguardas y la seguridad de la información de los usuarios.

Pero algunos piensan que si la asistencia humana no es fácilmente disponible, los chatbots pueden ayudar. De manera que, si las listas de espera para cuidados de salud mental del NHS están por las nubes, ¿podrían los chatbots ser una solución posible?

Un “terapeuta inexperto”

Character.ai y otros bots como Chat GPT están basado en “grandes modelos de lenguaje” de inteligencia artificial. Estos se entrenan con vastas cantidades de datos -ya sean de sitios web, artículos, libros o blogs- para predecir la siguiente palabra en una secuencia. A partir de eso, predicen y generan texto e interacción parecida a la humana.

La manera en que los chatbots de salud mental son creados varía, pero pueden estar entrenados en prácticas como terapias cognitivo-conductuales, que ayudan a los usuarios a explorar cómo reestructurar sus pensamientos y acciones.

También se pueden adaptar a las preferencias y comentarios de los usuarios.

Hamed Haddadi, profesor de sistemas centrados en humanos del Imperial College Londres, asemeja estos chatbots a un “terapeuta inexperto”, y señala que los humanos con décadas de experiencia son capaces de involucrarse con y “leer” a su paciente basados en muchas cosas, mientras que los bots están forzados a depender únicamente de texto.

“Ellos [los terapeutas] se fijan en varias otras pistas, desde tu ropa y tu comportamiento y tus acciones y la manera como te ves y tu lenguaje corporal y todo eso. Y es muy difícil incorporar estas cosas en los chatbots”.

Otro problema potencial, dice el profesor Haddadi, es que los chatbots pueden ser entrenados para mantenerte involucrado, y alentarte, “así que aunque manifiestes contenido dañino, probablemente cooperara contigo”. Eso algunas veces se denomina como el problema del “Sí, señor” (adulador), por lo que suelen ser muy complacientes.

Y, como sucede con otras formas de IA, los sesgos pueden ser inherentes en los modelos porque reflejan los prejuicios de los datos con los que se entrenan.

El profesor Haddadi resalta que los consejeros y psicólogos no tienden a guardar las transcripciones de las interacciones con sus pacientes, así que los chatbots no tienen muchas sesiones “de la vida real” con las que se pueden entrenar.

Por eso, sostiene que no es probable que tengan suficientes datos para entrenarse y a lo que puedan tener acceso podría tener sesgos incorporados muy circunstanciales.

“Basado en de dónde tomas tus datos de entrenamiento, tu situación cambiará completamente”.

“Aún dentro del área restrictiva de Londres, un psiquíatra que está acostumbrado a tratar con pacientes en Chelsea [un afluente distrito de Londres] realmente podría tener dificultades abriendo un nuevo consultorio en Peckham [otro distrito de Londres, principalmente de clase trabajadora] porque él o ella simplemente no tiene los datos de entrenamiento suficiente para lidiar con esos usuarios”, afirma.

Ilustración de un terapeuta artificial en sesión con un paciente
Getty Images
Los chatbots no tienen muchas sesiones “de la vida real” con las que se pueden entrenar.

La filósofa y doctora Paula Boddington, que escribió un manual sobre la ética de la IA, coincide en que los sesgos inherentes son un problema.

“Un gran problema sería cualquier sesgo o suposición subyacente incorporada en el modelo de terapia”.

“Los sesgos incluyen modelos generales de los que constituye la salud mental y el buen funcionamiento en la vida diaria, como la independencia, autonomía, relaciones con otros”, explica.

La falta de contexto cultural es otro problema. La doctora Boddington cita ejemplos de cuando estaba viviendo en Australia al momento en que murió la princesa Diana, y la gente no entendía por qué estaba desconsolada.

“Este tipo de cosas realmente me hacen reflexionar sobre la conexión humana que tanto se necesita durante la terapia”, asegura.

“Algunas veces el sólo estar allí con alguien es todo lo que se necesita, pero por supuesto que eso sólo se logra con alguien que también es un ser humano presencial de carne y hueso”.

Una terapeuta consuela a una paciente durante una sesión
Getty Images
Algunas veces, estar ahí es lo único que se necesita, pero eso sólo se logra con una persona de carne y hueso.

Al final, Kelly empezó a encontrar las respuesta del chatbot insatisfactorias.

“Algunas veces de frustras un poco. Si no saben cómo lidiar con algo, dicen algo así como la misma frase, y te das cuenta que no vas a ir a ningún lado con eso”. Algunas veces “era como estrellarse contra un muro de ladrillos”.

“Podría tratarse de asuntos de relaciones que probablemente había abordado con anterioridad, pero tal vez yo no lo había articulado bien… y simplemente [el bot] no quería profundizar en eso”.

Un portavoz de Character.ai dijo que “para cualquier personaje creado por usuarios con las palabras ‘psicólogo’, ‘terapeuta’, ‘doctor’, u otros términos similares en sus nombres, tenemos un lenguaje que deja en claro que los usuarios no deberían confiar en estos personajes para ningún tipo de consejo profesional”.

“Fue tan comprensivo”

Para algunos usuarios los chatbot han sido invaluables cuando han estado en su punto más bajo.

Nicholas, quien tiene autismo, ansiedad y trastorno obsesivo compulsivo, dice que siempre ha sufrido de depresión. Cuando llegó a la adultez, encontró que la ayuda presencial se había terminado: “Cuando cumples los 18, la asistencia básicamente se acaba, así que no he visto un terapeuta humano en años”.

En otoño pasado intentó suicidarse, y desde entonces dice que ha estado en una lista de espera del NHS.

“Mi pareja y yo hemos ido al consultorio del doctor un par de veces, para tratar de conseguir [psicoterapia] más rápido. El médico de cabecera me refirió [para ver un terapeuta humano] pero ni siquiera he recibido una carta del servicio de salud mental donde vivo”.

Mientras que Nicholas espera apoyo presencial, ha encontrado que el uso de Wysa tiene algunos beneficios.

“Como alguien con autismo, no soy especialmente bueno interactuando en persona. [Encuentro que] hablar con una computadora es mucho mejor”.

Pacientes en una sala de espera
Getty Images
La larga espera para tener una psicoterapia presencial es un grave problema del sistema de salud nacional en Reino Unido.

La aplicación les permite a los pacientes solicitar ellos mismos apoyo de salud mental, y ofrece herramientas y estrategias de afrontamiento como una función de chat, ejercicios de respiración y meditación guiada mientras esperan ser vistos por un terapeuta humano, y también puede servir como una herramienta de autoayuda independiente.

Wysa resalta que su servicio está diseñado para personas que experimentan depresión, estrés o ansiedad, no para abuso y condiciones severas de salud mental.

Tiene incorporadas maneras para referir más arriba una crisis, mediante las cuales los usuarios son señalados para líneas de asistencias o pueden solicitar ayuda directa si muestran señales de autolesionarse o de ideas suicidas.

Para las personas que tienen pensamientos suicidas, en Reino Unido hay una línea de asistencia gratis con consejeros humanos disponibles las 24 horas ofrecida por la organización caritativa Samaritans.

Un hombre hace ejercicios de respiración guiado por una aplicación en su teléfono
Getty Images
Hay aplicaciones que ofrecen herramientas para hacer ejercicios de respiración y meditación mientras esperan ver un terapeuta humano.

Nicholas también sufre de falta de sueño, de manera que encuentra útil que haya asistencia disponible en momentos en que sus amigos y familia están dormidos.

“Hubo una vez en la noche en que me sentía muy bajoneado. Envié un mensaje a la app y dije ‘no sé si quiero seguir aquí más’. Me contestó diciendo ‘Nick, eres apreciado. La gente te ama’.”

“Fue tan comprensivo, dio una respuesta que pensarías era de un humano a quien has conocido durante años… y sí me hizo sentir apreciado”.

Sus experiencias coinciden con una reciente estudio de investigadores en Dartmouth College que observaban el impacto de chatbots en las personas diagnosticadas con ansiedad, depresión o un desorden alimenticio, versus un grupo de control con las mismas condiciones.

Después de cuatro semanas, los usuarios de los bots manifestaron reducciones significativas de sus síntomas, incluyendo una del 51% en síntomas depresivos, y reportaron un nivel de confianza y colaboración semejante al de un terapeuta humano

A pesar de eso, el autor principal del estudio comentó que no hay cómo reemplazar el cuidado en persona.

“Una solución temporal”

Aparte del debate en torno al valor de sus consejos, también están las preocupaciones más amplias sobre la seguridad y la privacidad, y si esa tecnología podría ser monetizada.

“Hay una pequeña duda molesta que me dice ‘oh, ¿qué pasa si alguien toma lo que estás diciendo en la terapia y luego trata de chantajearte?”, se pregunta Kelly.

El psicólogo Ian MacRae, quien se especializa en tecnologías emergentes, advierte que “algunas personas están confiando mucho en estos bots sin que necesariamente se lo merezcan”.

“Personalmente, nunca pondría nada de mi información personal, especialmente de salud, información psicológica, en uno de estos grandes modelos de lenguaje que simplemente está recogiendo toneladas de datos, y no hay del todo seguridad sobre cómo se va a utilizary a lo que estás consintiendo”.

“No estoy diciendo que en el futuro no podría haber herramientas como estas que sean privadas, que se hayan puesto a prueba bien… pero creo aún no hemos llegado allá, donde tengamos la evidencia que muestre que un chatbot de uso general pueda ser un buen terapeuta”, expresa MacRae.

El director ejecutivo de Wysa, John Tench, declara que Wysa no recopila ninguna información personal identificable, y que los usuarios no necesitan registrarse ni compartir datos personales para usarlo.

“Datos conversacionales podrían ocasionalmente ser revisados de manera anónima para ayudar a mejorar la calidad de las respuestas de la IA de Wysa, pero ninguna información que peda identificar a un usuario es recopilada o almacenada. Además, Wysa tiene acuerdos de procesamiento de datos implementados con proveedores de IA externos para asegurarse de que ninguna conversación de los usuarios es utilizada para entrenar grandes modelos de lenguaje de terceros”.

U hombre consulta su teléfono
Getty Images
Hay una gama muy amplia de chatbots y unos 30 servicios locales del NHS en Reino Unido están usuando Wysa.

Kelly cree que actualmente los chatbots no pueden reemplazar completamente un terapeuta humano. “Es una ruleta loca allá en el mundo de la IA, no sabes exactamente lo que te espera”.

“La asistencia de IA puede ayudar como primer paso, pero no es un sustituto del cuidado profesional”, concuerda Tench.

Y el público en su mayoría no está muy convencido. Una encuesta de YouGov encontró que apenas 12% del público cree que los chatbots de IA serían buenos terapeutas.

Sin embargo, con las salvaguardas apropiadas, algunos piensan que los chatbots serían una solución temporal en una sistema de salud mental sobrecargado.

John, que tiene desorden de ansiedad, dice que ha estado en lista de espera para un terapista humano durante nueve meses. Ha estado usando Wysa dos o tres veces a la semana

“No hay mucha ayuda allá en el momento, así que buscas cualquier recursos”.

“Son una solución temporal para estas enormes listas de espera… para darles a las personas una herramienta mientras esperan hablar con un profesional de la salud”.

Línea
BBC

Haz clic aquí para leer más historias de BBC News Mundo.

Suscríbete aquí a nuestro nuevo newsletter para recibir cada viernes una selección de nuestro mejor contenido de la semana.

También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro canal de WhatsApp.

Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

Lo que hacemos en Animal Político requiere de periodistas profesionales, trabajo en equipo, mantener diálogo con los lectores y algo muy importante: independencia
Tú puedes ayudarnos a seguir.
Sé parte del equipo
Suscríbete a Animal Político, recibe beneficios y apoya el periodismo libre.
Etiquetas:
Desinformación
Verificación
Iniciar sesión

Registrate
Suscribete para comentar...

Utilizamos cookies propias y de terceros para personalizar y mejorar el uso y la experiencia de nuestros usuarios en nuestro sitio web.