close
Suscríbete a nuestro newsletter
¡Gracias! Desde ahora recibirás un correo diario con las noticias más relevantes.
sync
Archivo Cuartoscuro
Multan a Pemex por 418 mdp por incumplir acuerdo de competitividad; la empresa impugnará
El regulador sancionó a Pemex Transformación Industrial por incumplir compromisos adquiridos tras una indagatoria que fue cerrada anticipadamente por una posible práctica anticompetitiva.
Archivo Cuartoscuro
Por Redacción Animal Político
21 de agosto, 2018
Comparte

La Comisión Federal de Competencia Económica (Cofece) impuso una multa de 418 millones 309 mil pesos a Pemex Transformación Industrial (Pemex TRI) por incumplir un compromiso para proteger y restaurar la competencia en mercados de petrolíferos cuando solicitó el cierre anticipado de una investigación por una posible práctica anticompetitiva.

La empresa fue investigada en 2016 por la posible realización de prácticas monopólicas relativas, sin embargo, solicitó el cierre anticipado de la investigación (expediente DE-002-2015) y, a cambio, se comprometió a llevar a cabo diversas acciones para restablecer las condiciones de competencia.

“En 2015, Pemex TRI fue denunciada ante la Comisión por la posible realización de prácticas monopólicas relativas, específicamente por discriminación de trato. Es decir, por no brindar las mismas condiciones de suministro y venta de primera mano de diesel marino especial a distribuidores de este combustible que se encontraban en igualdad de circunstancias”, detalla la Cofece en un comunicado.

No obstante, Pemex TRI entregó extemporáneamente un informe mediante el cual Cofece verificaría las acciones para eliminar las conductas por las que la empresa fue investigada.

El objetivo del informe es verificar que la empresa de el mismo trato en la venta de primera mano a todos los competidores que participan en estos mercados.

La entrega del informe, en términos de la resolución de compromisos, tiene que darse durante los primeros tres meses de cada año por un periodo de cinco años calendario, a partir del primer trimestre de 2017. No obstante, el primer informe se entregó de manera extemporánea, con prácticamente un año de retraso.

Por esta razón, el Pleno declaró el incumplimiento a una parte de los compromisos adquiridos por Pemex TRI y, en consecuencia, le impuso la multa.

Pemex TRI dice que impugnará

En respuesta, la empresa productiva del Estado anunció que impugnará por “lo ilegal y desproporcionado de la multa”, pues aseguró que ha cumplido con todas las obligaciones asumidas con la Cofece para evitar prácticas indebidas y que ha colaborado para corregir todas las prácticas observadas por el organismo regulador.

Sobre el incumplimiento de los informe, Pemex TRI dijo que se obligó a presentar uno de manera anual durante cinco años de un auditor externo, con el fin de acreditar un trato equitativo a los comercializadores de los petrolíferos investigados, y que tal informe debía presentarse en el primer trimestre de cada año.

“Pemex TRI ratificó los compromisos el 11 de octubre de 2016, por lo que la obligación de formular el informe anual del auditor externo venció el 11 de octubre de 2017. A partir de ese plazo, el informe debía presentarse durante el primer trimestre de 2018. El informe del auditor externo fue presentado el 23 de marzo de 2018”, expuso.

¡Gracias por leer! Ayúdanos a seguir con nuestro trabajo. ¿Cómo? Ahora puedes suscribirte a Animal Político en Facebook. Con tu donativo mensual recibirás contenido especial. Entérate cómo suscribirte aquí. Consulta nuestra lista de preguntas frecuentes aquí.
BBC/Gebrueder Beetz
"The Cleaners": los limpiadores digitales que deciden lo que ves (y lo que no ves) en internet
El trabajo de los moderadores de las redes sociales es altamente traumatizante. Cada día, deben analizar miles de imágenes perturbadoras y decidir sin son eliminadas o ignoradas en las redes sociales. Así lo muestra este documental de la BBC.
BBC/Gebrueder Beetz
21 de marzo, 2019
Comparte

A cientos de kilómetros de Silicon Valley, en el centro de Manila, unos equipos secretos de moderadores de internet deciden si decenas de miles de posts al día deben desaparecer de Google (YouTube), Facebook y Twitter.

Son los “limpiadores” de los rincones más oscuros de la red. Valoran qué se queda y qué se borra de la web antes de que tú lo veas.

Su trabajo consiste en navegar a través del contenido en línea más violento, perturbador, polémico y controvertido.

A veces se trata de videos de radicales violentos. Otras veces es propaganda política. También hay imágenes de personas que se autolesionan y todo tipo de pornografía infantil.

“Sin nosotros, internet sería un caos“, escribe uno de los “limpiadores” en un email desde Filipinas.

“Borramos imágenes, videos y textos que violan las normas de las redes sociales. La mayor parte del material que comprobamos aquí proviene de Europa y Estados Unidos”.

“Hay unidades más pequeñas en otros países, pero Filipinas es la más grande”, continúa el texto, sin especificar para qué empresa trabaja.

“Aquí hay miles de trabajadores”.

Ese correo electrónico forma parte de una investigación plasmada en un documental de los alemanes Hans Block y Moritz Riesewieck, que viajaron hasta Manila para mostrar el trabajo de estos moderadores en The Cleaners(“Los limpiadores).

The Cleaners es un documental de 125 minutos editado por la BBC que ha recibido muy buenas críticas desde que se estrenó en mayo de 2018.

Parte de una serie publicada por BBC Four, la cinta se adentra en las oficinas de los “limpiadores digitales” en Manila y recoge varios testimonios.

La película se gestó en el año 2013, cuando se descubrió que un video de abusos sexuales a un menor había sido publicado miles de veces en Facebook. Eso llevó a los cineastas a reflexionar sobre “lo que esconde la industria de las redes sociales”, dijo Riesewieck al poco de publicarse el documental.

La cinta plantea algunas preguntas interesantes: ¿quiénes “limpian” las redes sociales y con qué criterio operan? ¿Cuál es el límite entre moderación y censura? ¿cómo nos afectan esas decisiones?

“Policías” de las redes sociales

Los “limpiadores” de internet deben elegir entre una de estas dos opciones: ignorar o eliminar.

La presión es alta.

“Me dieron una advertencia. Si la empresa sabe que estoy hablando contigo, me veré en problemas. El cliente está amenazando con retirar todo el negocio”, le contó a los productores del documental un trabajador anónimo desde Filipinas.

Ese retrato de internet como un lugar oscuro y lleno de secretos contrasta con la visión de Mark Zuckerberg, quien ha comentado en alguna ocasión que su red social defiende la idea de una comunidad global, “que le da a todo el mundo el poder de compartir lo que quiera con quien quiera”.

Pero el trabajo de los moderadores es secreto.

“No puedes revelar nada. Nadie debe saber sobre este tipo de trabajo”, continúa otra mujer en condición de anonimato. “Si la gente lo supiera, tendría curiosidad”.

“La razón por la que hablo contigo es porque el mundo debe saber que estamos aquí, que hay alguien que comprueba las redes sociales”, explica otro “limpiador” filipino más adelante en el video.

“Hacemos lo mejor que podemos para que las plataformas sean seguras para todo el mundo”, agrega.

“No buscamos reconocimiento. Somos como policías. Nuestro principal objetivo es hacer que las plataformas sean lo mejor posibles. Alguien tiene que protegerlas, al igual que pasa con el mundo real”.

Otro moderador cuenta su experiencia: “Me apasiona mi trabajo, me gusta lo que hago”, afirma. “Los moderadores somos la seguridad, protegemos al usuario”.

Pero el trabajo puede llegar a ser mentalmente agotador.

25.000 fotos al día

“Llevo seis años siendo moderador. He visto muchos videos e imágenes”, asegura un hombre que no teme mostrarse ante la cámara.

“Vemos fotos en la pantalla. Después las analizamos y borramos aquellas que no cumplan las normas. Nuestro objetivo diario son 25.000 fotos“, explica.

“La principal misión de la moderación en internet es limpiar lo sucio. Esa es nuestra responsabilidad, asegurarnos de que nada sospechoso se publica en internet”.

Otro “limpiador” explica que ayuda a la gente: “Evito que se propague la explotación infantil. Tengo que identificar terrorismo. Detener el ciberbullying“.

Otra moderadora asegura que cuando comenzó su entrenamiento para ese trabajo no sabía de qué se trataba. “Recuerdo que sentí que ya lo quería dejar”.

Dice que lo más chocante que ha visto son niños explotados sexualmente. “Era una niña de unos 6 años”, recuerda. “No me lo puedo quitar de la cabeza”.

Confiesa que habló con su jefe y le dijo que no podía hacer el trabajo, pero él le insistió en que debía hacerlo porque había firmado un contrato.

Y lo hizo porque le aterraba trabajar en un basurero, como mucha gente de Filipinas, para sobrevivir.

“No estaba acostumbrada a ver este tipo de imágenes”, cuenta otra moderadora. “Fue duro, pero al final se convirtió en un placer culpable”.

Ya no soy la misma que antes. Es como un virus que se ha metido en mi cabeza. Necesito parar. Algo va mal”.

Según los testimonios de los “limpiadores” entrevistados en el documental, hay 37 organizaciones terroristas cuyo contenido está vetado en internet. Esa lista proviene del Departamento de Seguridad Nacional (DHS) de Estados Unidos.

“Tienes que memorizarlo todo sobre los terroristas: sus banderas, sus lemas… y moderarlo”, explica.

“El trabajo daña tu cerebro y te hace pensar que la violencia está bien, que matar a otros, poner bombas, es algo normal. Ves cuerpos saltando por los aires. Pero solo puedes ‘saltar’ tres videos al día”.

También señalan que ha habido suicidios, pero las compañías prefieren que no se sepa.

¿Qué es inapropiado?

Para empresas como Google, Fcaebook o Twitter, la labor de la moderación presenta ciertos conflictos.

“Empecé en Google en 2004. Es un privilegio haber formado parte del desarrollo de la infraestructura del mundo en que vivimos ahora, de algo tan poderoso y con el potencial real de cambiar vidas”, dice la abogada estadounidense Nicole Wong, quien trabajó para Google y Twitter como asesora jurídica.

“Empiezas con las preguntas: ¿Qué crees que debería estar en tu plataforma? ¿Qué es inapropiado?“.

Wong dice que las empresas pueden elegir si dejar que se publique todo sin antes revisarlo o, por el contrario, permitir “la mayoría de las cosas” y solo revisar aquello que recibe quejas.

La decisión no es fácil.

La abogada declaró frente a un tribunal para Google en 2005, cuando se investigó a la compañía por la facilidad con la que se encontraba la pornografía infantil en el buscador. “Estamos haciendo todo lo que podemos”, dijo entonces.

Algunos critican esa respuesta.

“Cuando abres las compuertas y pides a todo el mundo que emita sus propios videos, publique su vida y lo comparta todo, la gente responde”, dice Sarah T. Roberts, de la Universidad de California (EE.UU.).

“La gente con todo tipo de motivaciones e intereses responde”.

“Cuando Facebook y Google aseguran que no tienen empleados en Manila, pueden hacerlo legítimamente usando personal de una firma externa”, aclara.

“Es cierto que las nóminas no vienen de Google y Facebook, vienen de una firma subcontratada de Filipinas”.

Roberts dice que los moderadores de las redes sociales son entes invisibles para millones de usuarios de las plataformas “que nunca se plantean demasiado quién hace el trabajo de limpieza”.

Pero hay quienes sí lo hacen.

Decisiones editoriales

Abdulwahab Tahhan trabaja en Airwars, una organización no gubernamental fundada por Chris Woods, un experiodista en la BBC, dedicada ofrecer transparencia sobre colisiones aéreas en Siria y en otros países en guerra.

“Cada vez que vemos una foto o un video en las redes sociales lo archivamos inmediatamente porque sabemos que después puede ser eliminado. Es muy importante para nosotros documentar esas imágenes“, explica.

“Esos videos se necesitan, son parte de la guerra, proporcionan información”, defiende.

“Pero el problema es que a menudo son clasificados como videos de Estado Islámico. Son muy gráficos, así que son borrados”.

Tahhan considera que la “cesura de YouTube” está afectando a “muchas organizaciones con videos sobre la destrucción en Siria cuyas cuentas han sido suspendidas”.

En cambio, Wong dice que la decisión de borrar el contenido se basa en el “contexto” de cada plataforma y que ese material puede representar una “amenaza” o ser visto como noticia o como una sátira.

“Eso hace que sea muy difícil saber si ciertas piezas de contenido deben eliminarse o no”.

Pero el trabajo de los moderadores no siempre es revisado por los supervisores. De hecho, la mayoría de las veces no lo es, señala uno de los “limpiadores”.

Apenas el 3% es revisado, según su testimonio.

En general, las redes sociales establecen que cuando hay genitales y menores en la imagen, se debe borrar el contenido.

Sin embargo, hay imágenes satíricas, políticas o artísticas que son censuradas por esa cuestión. También puede haber fotografías que muestren una realidad social. Pero, al final, quien toma la decisión editorial es el moderador.

“Tenemos que tener pensamiento crítico”, dice David Kaye, un experto de la ONU especializado en libertad de expresión.

“A la gente no debería sorprenderle si en el futuro hay menos información disponible; si lo que hay en internet es menos atrevido, menos provocativo”.

“Yo pienso que eso nos hará ser una sociedad más pobre”.

Mientras tanto en Manila los “limpiadores” continúan con su labor.

“Los algoritmos no pueden hacer lo que hacemos”, dice uno de ellos.


Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.

¡Gracias por leer! Ayúdanos a seguir con nuestro trabajo. ¿Cómo? Ahora puedes suscribirte a Animal Político en Facebook. Con tu donativo mensual recibirás contenido especial. Entérate cómo suscribirte aquí. Consulta nuestra lista de preguntas frecuentes aquí.