El efecto de la campaña #NoEsDeHombres

El objetivo de una campaña puede ser simplemente que sea vista, sin que ello produzca un efecto adicional; sería una campaña de sensibilización. En el caso de #NoEsDeHombres, si el objetivo era reducir agresiones sexuales y/o incrementar denuncias en el metro de la CDMX, nuestro análisis estadístico no permite concluir que haya tenido efecto alguno.

Por: Carolina Torreblanca (@caro_whitetower)

La mayoría de los capitalinos se sienten inseguros al usar el transporte público, 84% de las mujeres mayores a 18 años y el 81% de los hombres en 2016 según datos de la ENVIPE; sin embargo, el 76% de las personas hostigadas o violadas al usarlo fueron mujeres. Según la misma ENVIPE, ni una sola de las víctimas decidió denunciar la agresión. Con estas cifras, no solo parece lógico sino imprescindible que se adopte una estrategia de política pública para atacar el problema de la violencia hacia las mujeres en el transporte público.

En los últimos años, dos campañas han sido notorias por intentar hacer precisamente esto: la primera fue la Estrategia 30-100, en el marco de la estrategia “Vive Segura” y la segunda fue la campaña #NoEsDeHombres. Aquí pueden encontrar un análisis exhaustivo de la Estrategia 30-100 que realizó el Observatorio de la Estrategia 30-100, formado por Ala Izquierda, EQUIS Justicia, el Área de Derechos Sexuales y Reproductivos del Programa de Derecho a la Salud del CIDE y el Grupo de Información en Reproducción Elegida (GIRE). Nosotras vamos a concentrarnos en la segunda.

Nos propusimos medir cuantitativamente el efecto de #NoEsDeHombres, para intentar determinar si logró en alguna medida su cometido de disminuir la violencia contra las mujeres usuarias del transporte público. Después de hacer un análisis cuasi experimental, usando el método de diferencia-en-diferencias, encontramos que no existió ningún efecto significativo sobre el total de reportes, desistimientos o quejas por abuso sexual reportadas dentro del Sistema de Transporte Colectivo. Es decir, no encontramos evidencia de que la campaña #NoEsDeHombres haya servido para disminuir la violencia sexual en el transporte público.

#NoEsDeHombres: ¿qué buscaba?

A finales de marzo de 2017 ONU Mujeres, en colaboración con el Gobierno de la CDMX, anunció la campaña #NoEsDeHombres. El proyecto consistió en la publicación de dos videos para “generar empatía entre los hombres sobre el acoso sexual que viven mujeres y niñas en el transporte público.” (http://mexico.unwomen.org/es/noticias-y-eventos/articulos/2017/04/noesdehombres) y de la subsecuente instalación de materiales gráficos en diferentes espacios de transporte publico. En total se instalaron 657 carteles en 73 estaciones distintas.

¿Cuál era el objetivo puntual de la campaña? Según ONU Mujeres buscaba “generar un cambio cultural y disminuir las prácticas de acoso que padecen diariamente miles de mujeres y niñas al transitar la ciudad.” Es decir, incidir en los niveles de violencia sexual que sufren las mujeres y niñas en la CDMX al usar el transporte público. Sin embargo, este proyecto es parte de una campaña más amplia, llamada “Ciudades y Espacios Públicos Seguros para Mujeres y Niñas”, el cual busca “prevenir y responder a las situaciones de violencia que viven las mujeres en las ciudades, así como para generar conciencia, evidencia, campañas de comunicación y buenas prácticas en la prevención de acoso sexual y diversos tipos de violencia que enfrentan las mujeres y niñas […]”

Esto significa que, si bien podemos evaluar el éxito del objetivo puntual de la campaña #NoEsDeHombres, es decir si logró o no incidir en violencia sexual, lo que este análisis – ni factiblemente análisis cuantitativo alguno – puede hacer es medir el éxito que tuvo en “generar conciencia” y cumplir con los objetivos de la campaña más grande que la enmarca.

#NoEsDeHombres: ¿cómo medir su éxito?

Gracias a ONU MUJERES, tuvimos acceso a datos de los reportes mensuales de detenidos, disentimientos y quejas por abuso sexual dentro del Sistema de Transporte Colectivo (STC), reportes obtenidos por el Instituto Nacional de Mujeres Ciudad de México mediante solicitudes de información, además de información sobre las estaciones en las que se colocó la campaña y las fechas en las que se echó en marcha.

Intuitivamente ¿qué deberíamos haber observado en las estaciones en las que se colocó este material gráfico si la campaña hubiera sido exitosa? Un cambio en la tendencia de delitos sexuales. Es decir, deberíamos observar que bajaron las tasas de delitos sexuales después de que inició la campaña, comparado con los niveles que había en esas mismas estaciones antes de que empezara la campaña. Pero ¿cómo podemos estar seguras de que esa disminución en acoso no fue causada por alguna otra cosa externa a la campaña? ¿Qué tal que bajó el acoso en toda la Ciudad por alguna otra política o algún fenómeno distinto?

Para poder atribuirle el efecto a la campaña, la variación en la tendencia de delitos y reportes de agresiones sexuales antes y después de la campaña en las estaciones en las que se implementó tiene que ser significativamente diferente a cualquier cambio observable en esos mismos reportes registrados en estaciones en las que no se implementó. En palabras simples, la disminución tiene que ser significativamente diferente a cualquier variación que haya ocurrido en estaciones sin campaña. Nuestra medida entonces tiene que ser la diferencia en los niveles de acoso en estaciones en las que se implementó la campaña en estos dos periodos, comparada con esa misma diferencia en las estaciones en las que no se implementó la campaña. A esto se le llama Diferencias en Diferencias (o DD para abreviar).

Para medir así la efectividad de la campaña necesitamos solamente dos cosas: saber en qué estaciones fue implementada la campaña y en qué estaciones no, además de información sobre la violencia sexual en todas las estaciones antes y después de la campaña. Gracias a información proporcionada por ONU mujeres, sabemos en qué estaciones fue colocado el material gráfico de la campaña. Además, tenemos los reportes mensuales de detenidos, desistimientos y quejas por abuso sexual al interior del Sistema de Transporte Colectivo de enero a diciembre del 2017, que genera el propio SCT.

Aquí es importante apuntar una cosa, este análisis va a operar bajo un supuesto importante: que la cantidad de reportes está directamente relacionada con la magnitud de violencia sexual. Esto no implica que para poder evaluar la política un requisito indispensable sea que cada acoso quede registrado, simplemente quiere decir que estamos asumiendo que variaciones en el primero implican variaciones en el segundo.

Podemos pensar en distintos mecanismos causales que relacionen la intensidad del fenómeno subyacente con la de los reportes. Uno, por ejemplo, es a través de posibles perpetradores de violencia que, al ser expuestos a esta publicidad, cayeran en cuenta que sus acciones son dañinas, que su conducta está mal o que es ilegal y se disuadieran de cometer un acto de acoso. Esto resultaría en una disminución significativa de reportes de acoso. Otro mecanismo operaría al revés: la campaña podría tener un efecto sobre las victimas que, al ser expuestas a los anuncios, se enteran de que lo que vivieron es un delito o se sienten más respaldadas para ir a denunciar el acoso ante una autoridad. Si este fuera el caso, lo que esperaríamos observar es un aumento en los reportes registrados. En cualquier caso, esperaríamos un efecto significativo, en alguna dirección, sobre reportes de violencia si la campaña hubiera tenido algún efecto.

Un rápido diagnóstico de violencia en el Metro

Gracias a la información proporcionada por ONU Mujeres, sabemos que el material gráfico de la campaña fue puesto en el 37.5% de las estaciones del metro de la CDMX, en 10 de las 12 líneas.

Los reportes mensuales de violencia sexual dentro del STC incluyen datos de averiguaciones previas y carpetas abiertas, desistimientos de denuncias, quejas levantadas y denuncias ante juzgado cívico. Por mucho las más numerosas son las primeras dos, por lo que concentramos ahí el análisis.

Los reportes, quejas y desistimientos se abren a causa de distintos tipos de actos calificados como “abuso sexual” por el STC. Lo más común por mucho es que el tipo de agresión sea “tocamientos”; seguido de que alguien te grabe o tome foto sin tu consentimiento y de exhibicionismo.

No todas las estaciones del metro son igual de peligrosas para las mujeres, por lo que esperar que la magnitud del cambio antes y después de la campaña sea uniforme entre estaciones sería un grave error. Si la probabilidad de que te agredan es la misma en dos estaciones, digamos 10% de las pasajeras son agredidas, pero 100 pasajeras usan la primera estación y mil usan la segunda, el resultado va a ser de 10 agredidas en la primera y 100 en la segunda a pesar de que la intensidad del fenómeno es la misma en las dos. Para asegurarnos de medir la correctamente el cambio en la intensidad del fenómeno, usamos las cifras de afluencia que publica el STC para calcular tasas de carpetas de investigación y desistimientos reportados por cada 100 mil pasajeros.
Guerrero, Chabacano, Santa Anita y Tlatelolco son las que tienen mayores tasas de carpetas de investigación por abusos abiertas por cada 100 mil pasajeros.

Si ahora vemos la tasa de desistimiento por 100 mil pasajeros, es decir, de mujeres que desistieron de continuar con el proceso de levantar una denuncia formal ante una autoridad, vemos que otra vez las estaciones de Guerrero y Chabacano están entre las que tienen tasas más altas, seguidas de la estación Balderas. Estas tres estaciones tienen en común que son de correspondencia, lo que nos podría estar indicando que hay algo en el proceso de transbordar en un trayecto que vuelve más vulnerables a las mujeres a algún tipo de agresión.

Diferencias en Diferencias

El método de diferencia-en-diferencias es una manera de resolver el problema principal de cualquier evaluación que pretenda hacer inferencia causal con información no experimental: la inexistencia de un contrafactual. Es decir, no podemos medir con precisión el efecto de la campaña usando datos solo de estaciones en las que se implementó por la sencilla razón de que no sabemos qué hubiera pasado con la violencia sexual ahí si no se les hubiera aplicado la campaña. Necesitaríamos dos estaciones gemelas, idénticas en todo excepto en que en una se puso la publicidad de la campaña y en otra no, para poder comparar directamente niveles de violencia y atribuir la diferencia a la campaña. El método de DD nos dice que podemos aproximarnos a esta estación hipotética, el contrafactual perfecto, comparando con lo que ocurrió en promedio en las estaciones en las que de hecho no se aplicó el programa (Angrist y Pischke, 2015).

Lo primero que notamos en el caso de carpetas de investigación cuando comparamos los dos tipos de estaciones, en las que se instaló la campaña y en las que no, es que la tasa es bastante variable en el tiempo. Lo segundo es que las tendencias de la tasa de investigaciones abiertas en las estaciones con y sin campañas no son perfectamente paralelas. Esto complica el uso de las estaciones sin campañas como “contrafactual”, por lo que no podemos estar por completo seguras de que la campaña es responsable de cualquier cambio observado, es decir, factiblemente estamos sobrestimando su efecto.

Las diferencias en las tasas de carpetas de investigación abiertas en las estaciones con y sin campaña entre los dos periodos se reportan en la siguiente tabla, al igual que la diferencia entre estas diferencias. Es esta última la que sirve para evaluar si la campaña tuvo un efecto significativo y en qué magnitud. En este caso la diferencia en diferencias no es significativa, es decir no hay evidencia de que la campaña haya tenido un efecto significativo sobre la tasa de investigaciones o carpetas abiertas. Esto a pesar de que factiblemente estamos sobreestimando su efecto.

Para desistimientos, vemos que una vez más las tendencias de los dos grupos, con tratamiento y sin tratamiento, no son perfectamente paralelas. Por lo que, en este caso, al igual que en carpetas de investigación, factiblemente estamos sobreestimando el efecto del tratamiento.


Al revisar la magnitud y significancia de la diferencia en diferencias, vemos una vez más que la campaña no tuvo un efecto estadísticamente significativo sobre la tasa de desistimientos.

Forma sobre fondo: El pito como metáfora

No hay evidencia cuantitativa de que #NoEsdeHombres haya tenido un efecto ni sobre carpetas de investigación ni sobre desistimientos de denuncias de abuso sexual en el metro. ¿Podría ser simplemente que la campaña fue un éxito y que estamos usando el indicador equivocado para evaluarla? Sí, dado que antes de echar en marcha la campaña no se aclaró un método de evaluación y un set de indicadores para hacer la evaluación, podría bien ser éste el caso. Sin embargo, creemos que los reportes son un buen indicador para evaluar la campaña y que los resultados arriba presentados tienen robustez.

¿Cuál es el problema entonces? ¿Por qué no funcionó? Los métodos cuantitativos no sirven para contestar esta pregunta, pero podemos elucubrar. Tal vez sea que esta campaña peca de atacar la forma y no el fondo del problema. Es lo que Catalina Pérez Correa, hablando de la tipificación de delitos contra las mujeres en el derecho penal, llama una victoria simbólica que se instale esta campaña en los vagones del metro. Es una victoria en tanto que se reconoce que la violencia contra las mujeres existe y que los perpetradores son, en potencia, los hombres mismos hombres que están leyendo el anuncio, simbólica en tanto que no se traduce en un cambio en la incidencia de esos mismos delitos que busca atacar.

Parte de lo que se le criticó a la Estrategia 30-100 es que ponía en las mismas víctimas “la responsabilidad de prevenir y detener la violencia que sufren […]sin abordar los obstáculos estructurales”. Para prevenir el acoso, decía la campaña, tu denuncia es tu mejor defensa – aunque denunciar te tome 3 horas y sacrificar todo un día laboral (un impuesto recesivo a la denuncia que sin duda las mujeres más marginadas no pueden costear); aunque denunciar implique ser revictimizada por las propias autoridades; para prevenir el acoso, tú víctima debes hacer sonar un silbato, aunque resulte poco claro lo que ocurrirá después.

Podría argumentarse que el enfoque y la responsabilidad en esta ocasión fueron puestas del lado del perpetrador, no de las víctimas; “así te ves cuando acosas en el metro”. Es cierto, sin embargo, sigue teniendo algo en común con la campaña pasada que es que el énfasis estuvo en la forma y no en el fondo. Así te ves cuando acosas, pero esa mujer muy probablemente no te va a denunciar y, si decide sí hacerlo, probablemente va a desistir antes de terminar el proceso. Al menos ya vas a saber que te ves mal mientras lo haces.

Metodología

Diseño gráfico por Víctor Sahagún (@masvicmas).

Para corroborar la robustez de los resultados también corrimos un Coarsened Exact Matching (CEM). El método CEM nos permitió llegar mediante un proceso distinto a las mismas conclusiones. Pareamos estaciones con y sin la campaña por atributos relevantes y con esta ponderación se corrió una OLS. Los resultados confirman lo encontrado con el método de DD. En otras palabras, los cambios en las tasas de denuncias antes y después de la campaña #NoEsDeHombres no son explicados por la campaña.

Para evaluar el efecto de la DD, se corre una regresión de mínimos cuadrados ordinarios con una interacción entre dos variables dicotómicas; la primera toma el valor de 1 cuando se trata de una estación en la que se implementó la campaña y 0 de otro modo; la segunda toma el valor de 1 cuando se trata del periodo después de la implementación de la campaña y 0 antes y se evalúa la y predicha en cada escenario.

La información de desistimientos, reportes y carpetas puede ser consultada aquí

Close
Comentarios