Les presentamos a la “honorable” Suprema Corte de Justicia de Facebook - Animal Político
close
Recibe noticias a través de nuestro newsletter
¡Gracias! Desde ahora recibirás un correo diario con las noticias más relevantes.
sync
Altoparlante
Por Artículo 19
Artículo 19 es una organización, de origen inglés, que por más de 20 años ha trabajado en la... Artículo 19 es una organización, de origen inglés, que por más de 20 años ha trabajado en la defensa y promoción de la libertad de expresión en el mundo. El libre flujo de información por cualquier medio, el intercambio de ideas entre actores, y la transparencia gubernamental son elementos indispensables para una democracia. Por ello, Artículo 19 se dedica a proteger el derecho contra todo acto de censura. Síguenos en Twitter: @article19mex. (Leer más)
Les presentamos a la “honorable” Suprema Corte de Justicia de Facebook
Con la activación del Consejo Asesor de Contenido de Facebook y su cuerpo de élite veremos qué tan independientes, autónomos y respetuosos serán de los derechos humanos.
Por Priscilla Ruíz
12 de junio, 2020
Comparte

Comenzó por Cambridge Analytica a principios del 2018, donde la red social más concurrida en este caso Facebook fue señalada como responsable por compartir de forma inapropiada los datos de casi 87 millones de usuarios. Fue entonces que se iniciaron varias investigaciones relacionados al uso de datos privados de las y los usuarios de la plataforma y fue hasta julio de 2019 en que la Comisión Federal de Comercio de Estados Unidos (conocida por sus siglas en inglés FTC) ordenó a la red social pagar $5.000 millones de dólares como sanción por las “malas prácticas en el manejo de la seguridad de los datos de los usuarios”. Esta decisión y recomendación de la FTC obligaba a Facebook a crear un comité independiente para temas de privacidad, sobre el cual Mark Zuckerberg no debía de tener ningún tipo de injerencia en las decisiones.

Continuamente se dan los crímenes suscitados en Myanmar en 2018, a raíz de una publicación originada en Facebook, donde se incitaba a cometer violencia en contra de los Rohinyá, una población musulmana considerada minoritaria y que ha pasado por varios eventos de persecución y genocidio. El señalamiento de culpa por las organizaciones aumenta más hacia Facebook y la respuesta fue activar un mecanismo de moderación de contenidos supuestamente más minucioso al contratar a 99 personas entre ingenieros y expertos en realizar lineamientos de política para la plataforma digital. La única respuesta que emitió Facebook ante los crímenes en Myanmar fue tan solo ingresar una política sobre “violencia creíble” y poner mayor énfasis en la detección discursos de odio a través de herramientas como el uso de inteligencia artificial.

En tanto dichas situaciones fueron acumulándose y desprestigiando cada vez más a la plataforma de red social, Facebook se vio obligada en pensar un mecanismo independiente que velara por temas como la privacidad y aumentara la moderación de contenido no solo mediante la contratación de recursos humanos sino también utilizando inteligencia artificial con la finalidad de que cualquier contenido sea removido automáticamente si contraviene o infringe las normas comunitarias de Facebook.

En noviembre del año pasado, Mark Zuckerberg había compartido su visión de contemplar la creación de un organismo independiente integrado por personas reconocidas que tuvieran la capacidad de recibir casos de apelación de las decisiones de contenido que habían sido removidos por la propia plataforma. Este organismo independiente vela por tres ejes relevantes: la independencia, la transparencia y el respecto a la privacidad. Fue de esta manera que Facebook comenzó una nueva búsqueda para reclutar expertos y expertas en temas como libertad de expresión, tecnología y la democracia, justicia procesal y derechos humanos.

Se organizaron talleres en Singapur, Delhi, Nairobi, Berlín, Nueva York, la Ciudad de México y otras ciudades con el objetivo de consultar acerca del diseño de una junta encargada bajo los principios de Facebook y que contribuyera a la generación de juicios independientes en casos difíciles. Fue entonces que el 6 de mayo del 2020 se da a conocer a los primeros 20 expertos y expertas que integrarán el Consejo Asesor de Contenido y esperan que aumente a 40 con la intención de supervisar las prácticas de moderación de contenido. Entre los asesores y asesoras del Consejo se destacan personas que han contribuido a la protección de la libertad de expresión y otros derechos humanos. El reclutamiento fue minucioso con la intención de ver un nuevo Facebook que desea modificar su estructura y redimirse de los altos costos que ha tenido a través de su existencia, pero también sopesar las exigencias de organizaciones y activistas en derechos digitales que constantemente han señalado a la plataforma por sus normas comunitarias ambiguas, su falta de transparencia y ausencia de cumplir debido proceso en la remoción de contenidos.

Desde ARTICLE19 señalamos que, a pesar de tener un Consejo Asesor de Contenido, “como mínimo, se necesitan cambios fundamentales en el enfoque de empresas como Facebook (…) que debe de mejorar con claridad y detalle sus normas comunitarias, que deben de ser alineadas con las normas internacionales en materia de derechos humanos y ser mas transparentes, incluso mediante el intercambio de datos más completos sobre decisiones y procesos de moderación de contenido”.

La historia no se olvida y en las mentes queda el recuerdo de las inconsistencias que empresas como Facebook han realizado. Por más que su redención sea crear un consejo de élite en libertad de expresión y derechos humanos no detendrá a las organizaciones y activistas en derechos digitales en señalar las faltas de una empresa que decide ciegamente y de forma arbitraria la remoción de contenidos que no sean lineales a su visión y en especial a sus intereses. Recordemos que recientemente Mark Zuckerberg dejó “pasar” y de aplicar sus normas comunitarias contra el presidente Donald Trump relacionado con las protestas de Minneapolis originadas a raíz de la muerte de George Floyd, quien murió en manos de autoridades policiales, lo que permitió a Facebook asentar un fuerte y peligroso precedente. Trump refería en su publicación que “el Estado había activado el protocolo de emergencia incluyendo una autorización para que la Guardia Nacional pueda asistir a las autoridades en el restablecimiento de la seguridad y calma debido a los disturbios”, además agrega que, “cualquier dificultad y estaremos tomando el control, pero cuando los saqueos empiecen, los disparos también empecerán”.

Es notable que las decisiones que puedan tomar las y los moderadores de contenido no necesariamente responden a la aplicabilidad de las normas comunitarias. Es un hecho que la moderación de contenidos puede responder a intereses y a la permanencia de un status quo que no deja de existir por más que se impulse la creación de un Consejo Independiente, pues el último que seguirá teniendo la última palabra será su creador y propietario, en este caso Mark Zuckerberg.

Con la activación del Consejo Asesor de Contenido de Facebook y su cuerpo de élite veremos qué tan independientes, autónomos y respetuosos serán de los derechos humanos. Pero también será interesante ver si las organizaciones y activistas de derechos digitales someterán casos para dar legitimidad y uso a la Suprema Corte de Justicia de Facebook u optarán por los Tribunales regionales e internacionales en derechos humanos.

* Priscilla Ruíz es Coordinadora Legal de Derechos Digitales de @article19mex.

Lo que hacemos en Animal Político requiere de periodistas profesionales, trabajo en equipo, mantener diálogo con los lectores y algo muy importante: independencia. Tú puedes ayudarnos a seguir. Sé parte del equipo. Suscríbete a Animal Político, recibe beneficios y apoya el periodismo libre.

#YoSoyAnimal
Comparte
close
¡Muchas gracias!

Estamos procesando tu membresía, por favor sé paciente, este proceso puede tomar hasta dos minutos.

No cierres esta ventana.