El contenido abusivo infringe las propias reglas de Twitter e incluye los tuits en los que se amenaza o promueve la violencia contra alguien por su raza, origen étnico, origen nacional, orientación sexual, género, identidad de género, filiación religiosa, edad, discapacidad o enfermedad grave. El contenido problemático se define como lesivo u hostil, sobre todo si se repite contra una persona en múltiples ocasiones, pero no tan intenso como el contenido abusivo.

En una muestra analizada por Amnistía Internacional, uno de cada 10 tuits en los que se mencionaba a periodistas y políticas negras era ofensivo o problemático; así lo ha manifestado hoy la organización de derechos humanos al publicar un impactante informe sobre conductas abusivas contra mujeres en Twitter, realizado con Element AI, empresa global de desarrollo de programas de inteligencia artificial.

Más de 6.500 personas voluntarias de 150 países se inscribieron para participar en la Patrulla Antitroles, proyecto único de crowdsourcing (colaboración colectiva) para procesar datos en gran escala sobre conductas abusivas online. Estas personas clasificaron 228.000 tuits enviados a 778 mujeres de la política y el periodismo en Reino Unido y Estados Unidos en 2017.

A continuación, Amnistía Internacional y Element AI usaron avanzadas técnicas de aprendizaje automático y ciencia de datos para extrapolar datos sobre el alcance de las conductas abusivas contra las mujeres en Twitter. Element AI calculó que se habían enviado 1.100.000 tuits ofensivos o problemáticos a las mujeres del estudio en todo el año, o un promedio de uno cada 30 segundos.

Element AI utilizó los datos recopilados por la Patrulla Antitroles para desarrollar un modelo de aplicación basado en aprendizaje automático que intenta detectar los tuits abusivos. Element AI permite acceder el modelo aquí para probarlo durante tres semanas, y así descubrir las limitaciones actuales y potenciales de la tecnología de AI en este ámbito.

La muestra incluía a políticas de todo el espectro político de Estados Unidos y Reino Unido. Las periodistas de la muestra trabajaban para publicaciones estadounidenses y británicas muy diversas, entre ellas Daily Mail, The New York Times, The Guardian, The Sun, gal-dem, PinkNews y Breitbart News.

Amnistía Internacional ha pedido reiteradamente a Twitter que publique los datos relativos al alcance y la naturaleza de las conductas abusivas en su plataforma pero, de momento, la empresa no lo ha hecho. Así esconde la magnitud del problema y dificulta la búsqueda de soluciones eficaces.

El personal voluntario de Patrulla Antitroles dedicó de manera colectiva la cantidad increíble de 2.500 horas a analizar tuits, lo que equivale al trabajo de una persona a tiempo completo durante un año y medio.

Principales conclusiones

El número de ataques dirigidos contra mujeres negras era desproporcionado: ellas tenían el 84% más de probabilidades que las mujeres blancas de ser mencionadas en tuits ofensivos o problemáticos. Uno de cada 10 tuits en los que se mencionaba a mujeres negras era abusivo o problemático, frente a uno de cada 15 en el caso de las mujeres blancas.

El 7,1% de los tuits enviados a las mujeres del estudio eran ofensivos o problemáticos. Eso supone 1.100.000 tuits en todo el año donde se menciona a 778 mujeres, o un tuit cada 30 segundos.

Las mujeres de color (negras, asiáticas, latinas y de raza mixta) tenían el 34% más de probabilidades que las mujeres blancas de ser mencionadas en tuits ofensivos o problemáticos.

Las conductas abusivas online contra las mujeres se dan en todo el espectro político. Observamos niveles semejantes de conducta abusiva online contra políticas y periodistas, y comprobamos que afectaba por igual a liberales y conservadoras, así como a organizaciones de medios de comunicación tanto de izquierdas como de derechas.

Deja un comentario