Hendrik Macedo
02/06/2017
Qualquer ato de comunicação escrita ou falada que busque ofender ou intimidar qualquer cidadão ou grupo deles é chamado discurso de ódio (do inglês, hate speech). A xenofobia, o racismo, a misoginia, a homofobia, a intolerância religiosa e política, a intolerância contra os idosos ou contra os mais pobres se tornaram acentuadamente mais presentes no dia a dia das pessoas com a popularização das redes sociais; efeitos colaterais graves da liberdade que cada um de nós ganhou de poder, quase sem filtros, expor ao mundo o que pensamos.
Entre abril e junho de 2016, o projeto Comunica que Muda [2] executou um algoritmo computacional para vasculhar o Twitter, o Facebook e o Instagram aqui no Brasil em busca de textos com esse teor. Nesse curto espaço de tempo, foram detectadas quase 400 mil menções. Mensagens de ódio contra posicionamento político, contra as mulheres, contra pessoas com algum tipo de deficiência e contra negros ocuparam, nessa ordem, as quatro nada honrosas primeiras colocações do ranking. Dentre essas mensagens incluíam-se ofensas a “coxinhas” e “petralhas”, assédio e incitação ao estupro, deboche aos “retardados mentais” ou “leprosos” e ataques à raça negra, tipo de cabelo, formato do nariz, entre outros. A impressão que se tem é que a intolerância se tornou tão banalizada que às vezes nem o agressor parece perceber que está agredindo, haja vista a quantidade de ofensas travestidas de piadas curtidas e compartilhadas e aquelas sutilmente escondidas atrás da sugestão de alisamento de cabelo para ficar mais bonita ou ao se referir criticamente ao Bolsa Família como esmola. Segundo outra iniciativa internacional para computar estatísticas sobre o assunto, o HATEBASE [3], o Brasil ocupa o 5o lugar no ranking mundial de citações desse tipo, empatado com o México e a França, e atrás apenas dos Estados Unidos (supercampeão), Reino Unido, África do Sul e Alemanha. Definitivamente, na contramão da democracia racial de Gilberto Freyre, existe um brasileiro não cordial, não hospitaleiro e extremamente intolerante que vive intensamente o mundo virtual; um não, milhares ou milhões deles.
Pois bem. A mesma máquina que viabilizou essa disseminação de ódio gratuito resolveu entrar na luta para interrompê-la. De 2012 para cá, algumas dezenas de artigos científicos foram publicados discorrendo sobre métodos inteligentes para detecção e categorização de discursos de ódio nas diversas mídias sociais, incluindo-se aí a seção de comentários do leitor comumente presente em portais de notícias na Web (como o G1 ou o UOL aqui no Brasil). Resultados têm sido promissores e podem sustentar ações cíveis e criminais previstas em Lei contra os chamados haters. Um artigo apresentado no mês de abril num workshop internacional dedicado ao processamento da linguagem natural em mídias sociais fez um extenso levantamento desses artigos e suas contribuições [4]. Segundo os autores, as abordagens comumente utilizadas são as baseadas no aprendizado de máquina supervisionado, destacando-se aí as Máquinas de Vetores de Suporte (SVM) [5] e, mais recentemente, as abordagens profundas com Redes Neurais Recorrentes (RNN), como mostra o trabalho do Yahoo! Research [6]. Entretanto, não é na atividade de classificação inteligente em si onde reside o grande desafio da tarefa. A dificuldade maior reside na identificação adequada de características do texto que irão alimentar a base de treinamento do classificador. Ou seja, o que de fato é relevante se extrair da mensagem escrita? Todos os termos? Alguns deles? Algo mais? Exatamente por boa parte das ofensas estarem camufladas, essa atividade de extração é bem difícil. Os autores do artigo apontam pelo menos seis dimensões para a extração de características em discursos de ódio que vem sendo consideradas na literatura científica relacionada com algum sucesso: (1) extrair n-gramas de palavras e de caracteres, (2) generalizar (e agrupar) termos em torno de sua semântica (ex: word embeddings), (3) considerar termos específicos de teor já reconhecidamente agressivo e que se fazem disponíveis em listas pré-estabelecidas por entidades representativas de minorias vítimas desse discurso, (4) utilizar as classes das palavras (substantivo, adjetivo, etc.) e relações sintáticas mais profundas entre termos não consecutivos numa sentença, (5) considerar características baseadas em conhecimento do mundo, muitas vezes representado através de ontologias (ex: base BullySpace como extensão da ontologia ConcepNet) e (6) usar meta-informação da mensagem: histórico de mensagens de ódio do autor, quantidade de posts de um usuário, quantidade de respostas a um post, origem geográfica do post, mídia social utilizada, citação a celebridades e personalidades famosas, entre outros.
Gastarmos tempo precioso em ter que identificar e punir indivíduos que se regozijam do simples ato de ofender gratuitamente outrem é lamentável. Recorrer a uma inteligência artificial para mostrar o quanto não estamos sendo inteligentes é irônico. Boa parte da população que reivindica democraticamente direitos em manifestações nas ruas em todo o país é a mesma que achincalha covardemente na calada da noite pelas telas do smartphone ou do notebook aquele anônimo que mais cedo ao seu lado estava na mesma luta pelos mesmos direitos. Vivemos tempos estranhos. Se “é mais fácil construir crianças fortes do que consertar homens quebrados” (Frederick Douglass, 1818-1895), então torçamos para que a força de nossas crianças nos ajude com novos tempos. Até lá, vamos dar um crédito para a máquina.
[1] Crédito da imagem: Wokandapix (Pixabay) / Creative Commons CC0. URL: https://pixabay.com/en/no-hate-word-letters-scrabble-2019922/.
[2] Agência nova/sb. Dossiê Intolerâncias visíveis e invisíveis no mundo digital. Blog Comunica que Muda. URL: http://www.comunicaquemuda.com.br/dossie/quando-intolerancia-chega-as-redes/.
[3] T Quinn. HATEBASE application and API. URL: https://www.hatebase.org/.
[4] A Schmidt and M Wiegand. A Survey on Hate Speech Detection using Natural Language Processing. SocialNLP 2017, 1 (2017).
[5] P Burnap and ML Williams. Cyber hate speech on twitter: An application of machine classification and statistical modeling for policy and decision making. Policy & Internet 7, 223 (2015).
[6] Y Mehdad and J Tetreault. Do characters abuse more than words? In 17th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pages 299–303, Los Angeles, CA, USA. (2016).
Como citar este artigo: Hendrik Macedo. Discursos de ódio na Internet e como a IA pode ajudar nessa luta. Saense. URL: http://www.saense.com.br/2017/06/discursos-de-odio-na-internet-e-como-a-ia-pode-ajudar-nessa-luta/. Publicado em 02 de junho (2017).