toxic-trolls-tweets-hero.png
(Crédito: AlexanderPavlov)

No es ningún secreto que el anonimato en el Internet puede ser una espada de doble filo. Por un lado, puede ayudar a proteger su aislamiento contra una red cada vez más extensa de las organizaciones que venden los datos personales para el beneficio. Por otra parte, puede ser utilizado para atacar la gente y conceptos sin tener que ser considerado responsable.

Es a veces un esfuerzo coordinado o automatizado, pero para los políticos y los periodistas femeninos en el Reino Unido, la fuente de los ataques puede no importar tanto como su frecuencia escarpada, según un informe reciente de Amnistía Internacional, una organización no lucrativa de los derechos humanos. El grupo dice que las mujeres en estos demographics reciben un pío abusivo o problemático al promedio de cada 30 los segundos.

VER: Amnistía Internacional apuntada por el spyware político motivado vía mensajes del texto de WhatsApp

CNET divulgó en marcha en un estudio anterior por Amnistía Internacional que dicho, “como compañía, Twitter no está pudiendo respetar las derechas de las mujeres en línea.”

Ahora el no lucrativo agrega, “estamos experimentando un momento de la línea divisoria de las aguas con las mujeres alrededor del mundo usando su energía colectiva de hablar hacia fuera sobre el abuso que él hace frente y que amplifica a sus voces a través de plataformas sociales de los medios.

“Sin embargo, la falta de Twitter de abordar con eficacia violencia y abuso en la plataforma tiene un efecto que se enfría en la libertad de la expresión en línea y mina la movilización de las mujeres para la igualdad y la justicia -- particularmente grupos de las mujeres que hacen frente ya a la discriminación y al marginalisation.”

En el informe anterior de la Amnistía Internacional, impulsó Twitter para ser más transparente sobre estos patrones del comportamiento abusivos, y el servicio social respondió el diciembre 12 con un análisis actualizado de la transparencia que incluyó una nueva sección sobre su aplicación de las reglas.

Sin embargo, Amnistía Internacional discute que no vayan estos datos suficientemente lejos porque no tienen subcategorías para diversos tipos de toxicidad, y que el informe de Twitter carece la información sobre cómo la toxicidad fue tratada de administrativo.

Conductas de la Amnistía Internacional sus el propios estudio

Amnistía Internacional eligió investigar esos datos se abre, con la ayuda 6.500 de los voluntarios que analizaban 288.000 los píos únicos que fueron recolectados en todas partes 2017.

Observa, “crucial, porque podríamos descargar solamente datos históricos de Twitter, nuestra muestra no incluyó los píos que habían sido suprimidos ya o los píos de las cuentas durante las cuales fueron suspendidos o inhabilitados 2017, pero solamente los píos que todavía estaban disponibles en la plataforma pulg. marzo de 2018”

Amnistía Internacional concluida que 7,1 los por ciento de píos enviaron 778 a los periodistas y los políticos adentro 2017 deben ser clasificados como abusivos o problemáticos, y ése sobre un millón menciones bajaron en una de estas dos categorías. Además, las minorías étnicas eran 34 por ciento más probables ser mencionado en un pío abusivo.

Como CNET divulgado adentro julio de 2017 -- mitad del camino centraa a través de la colección de datos de la Amnistía Internacional -- este abuso puede afectar grandemente salud mental accionando la química del cuerpo del modo de Survival que eleva el cortisol, designada a veces “la hormona de la tensión.”

SIGA Download.com en Twitter para todas las noticias más últimas del app.

¿Cuál es “un pío abusivo” o “problemático”?

El grupo dice, los “píos abusivos violan Twitter poseen reglas e incluyen el contenido contra el cual promueva la violencia o las amenazas de la gente basada en su raza, pertenencia étnica, origen nacional, orientación sexual, género, identidad del género, afiliación religiosa, edad, inhabilidad, o enfermedad seria.”

En cuanto a píos problemáticos, éstos “contienen el contenido que hace daño u hostil, especialmente si están repetida a un individuo en múltiplo u ocasiones, pero no resuelven necesariamente el umbral del abuso.”

¿Puede la detección automatizada del abuso solucionar el problema?

Notas de la Amnistía Internacional en su informe que Twitter ha elogiado los sistemas de la detección del abuso que utilizan la inteligencia artificial en vez de análisis de la gente. El AI que utiliza aprender de máquina puede procesar muchas veces más píos que un ser humano, dejando teóricamente Twitter continuar con el número enorme de él que se publica alrededor del reloj.

Sin embargo, el no lucrativo no es como optimista, citando el ejemplo de los esfuerzos de Google de estampar hacia fuera el contenido terroristic ése condujo al retiro inadvertido de “centenares de millares de videos de YouTube uploaded por los periodistas, los investigadores, y las organizaciones de los derechos humanos.” La gente que hablaba generalmente sobre el tema aparecía haber sido puesta en el mismo filtro que la gente que alegado abogaba para él.

Todos los píos en el estudio eran anonymized, cada uno era analizada por la gente múltiple, entrenaron a los voluntarios en cómo reconocer toxicidad y les proporcionaron un foro en línea si tenían cualesquiera preguntas. Los voluntarios se extendieron a partir 18 70 a años, y granizaron más que 150 países.

Takeaways

  • Amnistía Internacional estudió varios cientos de mil píos únicos enviados 778 a los políticos y a los periodistas femeninos en todas partes 2017, y se determinó que un pío abusivo o problemático fue enviado a estos temas cada 30 los segundos, en promedio.
  • Twitter ha defendido mecanismos de la inteligencia artificial para detectar y para quitar píos tóxicos, pero Amnistía Internacional discute que el AI no sea bueno en Processing ConTEXT, citando un ejemplo en YouTube donde los periodistas y los investigadores que estudiaban terrorismo tenían centenares de millares de sus videos suprimidos durante un barrido pulg. del contra-terrorismo. 2017

Lea más

Tom McNamara es redactor mayor para Download.com de CNET. Él cubre principalmente Windows, móvil y seguridad de DeskTop, los juegos, Google, los servicios que fluyen, y los medios sociales. Tom era también redactor en el máximo PC e ignición, y su trabajo ha aparecido en CNET, PC Gamer, MSN.com, y Salon.com. Él es también unreasonably orgulloso que él ha mantenido el mismo teléfono por más de dos años.