O Twitter irá testar uma ferramenta de envio aos usuários de notificação quando eles responderem a um tuíte usando "linguagem ofensiva", em um esforço para moderar as conversas na plataforma de mídia social, disse a empresa.
Quando os usuários clicam em "enviar" em sua resposta, eles serão informados que as palavras no tuíte são semelhantes às usadas em publicações denunciadas como ofensivas e serão questionados se gostariam de revisá-lo ou não.
Há muito tempo que o Twitter está sob pressão para eliminar conteúdo abusivo de sua plataforma, que é policiada por usuários que denunciam tuítes ofensivos e por tecnologia automática.
"Estamos tentando incentivar as pessoas a repensarem seu comportamento e repensarem sua linguagem antes de publicarem, porque geralmente estão no calor do momento e podem acabar dizendo algo que vão se arrepender depois", disse Sunita Saligram, chefe global de política do Twitter na área de confiança e segurança.
As políticas do Twitter não permitem que os usuários ataquem indivíduos com insultos racistas ou sexistas ou conteúdo degradante.
O Twitter disse que o teste, o primeiro do tipo para a empresa, começará nesta terça durará pelo menos algumas semanas. Ele será realizado globalmente, mas apenas vai ser aplicado sobre tuítes em inglês.