Las redes se preparan para las elecciones intermedias de EU
close
Recibe noticias a través de nuestro newsletter
¡Gracias! Desde ahora recibirás un correo diario con las noticias más relevantes.
sync

Ante el discurso de odio y la desinformación: ¿Cómo se preparan las redes para las elecciones intermedias de EU?

El objetivo de evitar interferencia en la elección y el voto, aplicando lo aprendido de las elecciones de 2018 y 2020.
2 de octubre, 2022
Comparte

En poco más de un mes se realizarán las elecciones intermedias de Estados Unidos, en las que se renovará un tercio del Senado (34 de los 100 escaños), la totalidad de la Cámara de Representantes (435 vacantes), así como 36 de 50 gubernaturas.

Los comicios se efectuarán el martes 8 de noviembre, y por ello las redes sociales han activado medidas de combate a la desinformación y hacia la difusión de contenido extremista, mensajes de odio y violencia, con el objetivo de evitar interferencia en la elección y el voto, aplicando lo aprendido de las elecciones de 2018 y 2020.

Rosa Merlin, académica de la Facultad de Ciencias Políticas y Sociales de la Universidad Nacional Autónoma de México (UNAM), dijo a Animal Político que si bien considera que sí existe amenaza de desinformación para los próximas elecciones intermedias, las grandes empresas tecnológicas están adoptando una serie de estrategias y  se están viendo obligadas a evitar que se difunda información errónea en campañas publicitarias engañosas, mensajes de odio e influencias externas en sus plataformas, introduciendo herramientas para evitar esta guerra desinformativa entre el electorado.

Entre agosto y septiembre, Meta, YouTube, TikTok y Twitter lanzaron comunicados en los que plantean el acercamiento que tendrán respecto a las elecciones intermedias de Estados Unidos y su protección a la comunidad durante ese tiempo. 

Todas aseguran que se enfocarán en ser un enlace de información confiable con noticias de última hora, datos sobre la votación o posturas políticas de los candidatos. Además, se comprometen en prevenir la interferencia en los votantes, y evitar (o limitar) la difusión de desinformación.

La especialista agregó que “estas estrategias no van a solucionar del todo el problema, pero sí se está iniciando esta lucha contra la desinformación porque hay que recordar que no hay como tal un mecanismo de regulación a nivel global de internet, y tampoco de estas grandes empresas tecnológicas, lo que nos deja como reto que hay mucho camino para andar pero es el comienzo”. 

Twitter señaló que, entre otras cosas, a medida que se acerque el día de las elecciones mostrará los prebunks, es decir, buscará adelantarse a las narrativas engañosas que puedan ser objeto de desinformación y colocará avisos al respecto.

En el caso de Facebook e Instagram, aseguran que continúan revisando contenido para determinar si infringe sus Normas Comunitarias, las cuales incluyen sus políticas sobre elección e interferencia al voto, la incitación al odio, coordinación de daños y publicidad de delitos, intimidación y acoso.

YouTube apunta que la búsqueda de contenido relacionado a las elecciones intermedias en su plataforma lleva a recomendaciones destacadas de fuentes de noticias nacionales y locales autorizadas, y que por tanto se mostrará una variedad de paneles de información en inglés y español de fuentes autorizadas debajo de los videos, y en los resultados de búsqueda sobre los exámenes parciales.

En una reciente actualización a sus políticas para cuentas de corte político, TikTok anunció que la verificación será obligatoria para cuentas estadounidenses de gobiernos, políticos y partidos hasta las elecciones intermedias -es decir, contar con la palomita azul que confirma que la cuenta pertenece al usuario que representa-; se prohíbe la monetización y la recaudación de fondos para campañas políticas, así como gastar dinero para promocionar su contenido.

De ese modo, cualquier cuenta perteneciente a políticos o partidos tendrán desactivado el acceso a las funciones publicitarias: nadie podrá invertir en anuncios en ellas.

Esto implica “educar” a los influencers para que no se conviertan en el atajo para publicar contenido político pagado. Es decir, en la prohibición que TikTok hace de la publicidad política, incluye a los creadores a quienes se les paga directamente para crear contenido de marca, en este caso, política.

Podría interesarte: Bots, cyborgs y trolls: así se distorsiona el debate en redes sociales

Un caldo de cultivo para la desinformación en los ciclos electorales

Si bien las redes socio digitales han demostrado ser una herramienta que durante procesos electorales permite informar a los votantes, promocionar y difundir mensajes electorales, su falta de regulación es determinante para generar una amenaza de desinformación y de mal uso de la información. 

Cabe recordar los casos de la “interferencia rusa” y de Cambridge Analytica en las elecciones de EU de 2016, donde Donald Trump resultó electo presidente.

En 2017, un informe de la Comisión de Inteligencia del Senado confirmó que Rusia había interferido en dichas elecciones presidenciales. Según el documento, en ese momento los objetivos de Rusia eran socavar la confianza de los estadounidenses en su sistema electoral y dañar la imagen de Hillary Clinton. 

En 2018, una investigación periodística destapó que la consultora Cambridge Analytica recopiló ilegalmente datos de más de 87 millones de usuarios de Facebook para luego presuntamente favorecer la campaña de Trump a la Presidencia.

Lee más: 5 claves para entender el escándalo de Cambridge Analytica y Facebook

La especialista Rosa Merlin expuso que en países como Estados Unidos la utilización de redes sociales durante las campañas políticas ha permitido ahorrar un porcentaje significativo de gastos destinados a la publicidad, y brinda un acercamiento directo con los votantes, lo que muestra un escenario perfecto para el desarrollo mediático en las campañas electorales, sin embargo, no es algo determinante para su triunfo.

“Las redes socio digitales han jugado un papel clave en las elecciones presidenciales de Estados Unidos… pero me parece que quienes apuesten a ellas como una herramienta de comunicación política, no deben caer en la trampa de la ilusión del optimismo tecnológico, y más bien deben sumar a otras estrategias, campañas que impacten”.

Finalmente, indicó que es importante apostar hacia la gobernanza global en estos temas. De acuerdo con la Comisión sobre Gobernanza Global, esta se define como la suma de las muchas maneras en que los individuos y las instituciones, públicas y privadas, manejan los asuntos comunes. 

“Que en esta gobernanza global se impliquen estas grandes empresas, los gobiernos, la sociedad civil, la comunidad científica y que empecemos a generar consciencia de lo que implica utilizar redes sociales, el expresarnos como un derecho humano, pero entender que hay limitaciones”.

El riesgo de la retórica extremista

El pasado 14 de septiembre, el Senado de los Estados Unidos llevó a cabo un panel sobre la seguridad en las redes sociales, en el que incluyó a Meta, YouTube, TikTok y Twitter, cuestionando cómo estas equilibran sus objetivos de mayor crecimiento e ingresos con el riesgo de amplificar el contenido violento que amenaza la seguridad nacional.

El panel “El impacto de las redes sociales en la seguridad nacional” fue convocado por el senador Gary Peters, presidente del Comité de Seguridad Nacional y Asuntos Gubernamentales del Senado, quien como justificación referenció a ejemplos de violencia en los que intervino el uso de las redes sociales para su magnificación, como el ataque al Capitolio del 6 de enero que se organizó por ese medio, o el caso del tirador que transmitió en vivo el asesinato de compradores de color en un supermercado de Buffalo.

 

El panel se dividió en dos. La primera parte incluyó a ex ejecutivos de empresas de redes sociales y la segunda a actuales directores ejecutivos de productos de las empresas ya mencionadas. 

El Comité los presionó para obtener más información sobre la relación entre el contenido extremista y los algoritmos de recomendación de las plataformas que terminan difundiendo contenido que puede incluir ideologías racistas, de violencia y por ende, peligrosas.

Los exejecutivos de redes sociales coincidieron en que estas empresas se enfocan mayormente en maximizar las ganancias que generan y que resulta de la amplificación de contenido viral, y de la que no toman responsabilidad sobre la seguridad de sus usuarios. 

Durante el segundo panel, los directores de productos de Meta, YouTube, TikTok y Twitter explicaron cómo las empresas de redes sociales toman decisiones comerciales y en qué medida abordan el contenido extremista, y los desafíos relacionados en sus procesos de diseño de productos. 

Vanessa Pappas, directora de operaciones de TikTok; Neal Mohan, director de productos de YouTube; Chris Cox, director de productos de Meta; y Jay Sullivan, gerente general de Bluebird en Twitter, defendieron sus esfuerzos para identificar y eliminar rápidamente el contenido dañino de sus sitios, y rechazaron la noción de que sus plataformas se benefician de la difusión de contenido potencialmente dañino, diciendo que la proliferación de contenido violento e ilegal tendría un efecto adverso en sus modelos de negocios centrados en la publicidad.

Al respecto, Mohan dijo que los anunciantes les han dicho que no quieren ser asociados con ningún contenido que promueva el odio y el extremismo violento y que “cuando ese contenido está en nuestra plataforma, se van”.

 

Lee también: YouTube suspende canal de Trump por vulnerar políticas de incitación al odio

Lo que hacemos en Animal Político requiere de periodistas profesionales, trabajo en equipo, mantener diálogo con los lectores y algo muy importante: independencia. Tú puedes ayudarnos a seguir. Sé parte del equipo. Suscríbete a Animal Político, recibe beneficios y apoya el periodismo libre.

#YoSoyAnimal
close
¡Muchas gracias!

Estamos procesando tu membresía, por favor sé paciente, este proceso puede tomar hasta dos minutos.

No cierres esta ventana.