Detecção de bots, notícias, rumores e perfis fakes nas mídias sociais

Dando continuidade à série de postagens sobre os capítulos que compõem o livro The SAGE Handbook of Social Media Research Methods, vamos falar do capítulo Deception Detection and Rumor Debunking for Social Media escrito por Victoria L. Rubin, Professora de Informação e Estudos de Mídia (University of Western Ontario). Este capítulo tem o objetivo de abordar temas referentes aos métodos e técnicas desenvolvidas para detecção de bots, notícias deturpadas e rumores sem credibilidades, que são frequentemente disseminados nas mídias sociais.

Em uma pesquisa realizada em 2015, por exemplo, mediu-se que 54% dos jornalistas dos Estados Unidos utilizam informações oriundas de microblogs para recortes de histórias em suas reportagens, porém, como avaliar a veracidade destas informações, assim como as publicações e informações compartilhadas no Facebook e Twitter?

Na primeira seção do capítulo, a autora explica a importância do problema em questão. Informações deturpadas são facilmente encontradas e disseminadas em diversas mídias, como aconteceu em outubro de 2008, três anos antes da morte de Steve Jobs. Um jornalista amador publicou um relato falso em que afirmava que Steve Jobs teria sofrido um ataque cardíaco, o rumor foi rapidamente retweetado, desconsiderando o fato de que ele foi reportado através do iReport.com da CNN que até então permitia posts sem edições e sem filtros. Embora a informação errada tenha sido corrigida mais tarde, a notícia sobre a saúde de Steve Jobs se espalhou rapidamente, causando confusão e incerteza, resultando ainda em uma rápida flutuação das ações da empresa naquele dia.

Com base em relatos similares ao descrito acima, esta primeira parte argumenta sobre como as redes em mídias sociais (Facebook, Twitter, blogs, LinkedIn, etc.) são construídas para a disseminação de informações, mensagens, promoções e outros tipos de compartilhamentos entre os usuários. A autora explica ainda que este capítulo é focado nas plataformas que utilizam textos como principal meio de comunicação, já as plataformas de imagens e vídeos como Instagram, Flickr e Youtube, são deixados para análises posteriores relacionadas às outras possíveis formas de manipulação.

Em seguida, a análise histórica e bibliográfica para informações sobre a Filosofia da Linguagem e citações de estudos produzidos sobre sua complexidade foi realizada para entender o contexto da criação de boatos. As teorias atuais de comportamentos comunicativos sugerem que os enganadores se comuniquem de maneiras qualitativamente diferentes dos contadores de verdade, gerando a necessidade de traduzir essas descobertas em ferramentas analíticas de texto para detectar mentiras, principalmente em formas mais longas de comunicação mediada por computador.

Soluções Metodológicas:

Estudos sobre a detecção destes tipos de “informações errôneas” geralmente estão alinhados com as propostas linguísticas e mesmo que não exista consenso e precisão completa dos preditores de engano, estes modelos de informações deturpadas podem ser enriquecidos através da clusterização e exame de suas complexidades. Abaixo podemos ver os nove agrupamentos de construções linguísticas: quantidade, complexidade, incerteza, não-imediato, expressividade, diversidade, informalidade, especificidade e afetividade – com indicadores mensuráveis (Redrawn de Zhou et al., 2004).

Resumo das características linguísticas para a detectar deturpações:

Também são explicados os modelos de análise dos dados oriundos das mídias digitais e seus vários formatos, a exemplo dos textos coletados de blogs que são diferentes dos textos compartilhados no Twitter, necessitando de algoritmos ou conceitos específicos para a identificação de linguagens e contextos.

Ferramentas:

Com o passar dos anos houve o aumento no volume de informações, tanto das áreas do jornalismo, marketing online e recortes de histórias quanto de informações políticas. Para a curadoria destas informações a autora dedica esta parte do capítulo aos métodos, metodologias e às ferramentas manuais e automatizadas. Explica ainda o estímulo da demanda de estudiosos e de profissionais que desenvolvem estes tipos de ferramentas para serem estáveis, rápidas e precisas, devido a quantidade de dados coletados para análises.

A automação completa da detecção de deturpações na comunicação escrita baseia-se principalmente nas pistas linguísticas derivadas das classes de palavras do “Inquérito Linguístico e da Contagem de Palavra” (Linguistic Inquiry and Word Count (LIWC)), ou seja, segundo o texto, a idéia principal da codificação LIWC é a classificação de acordo com as condições de veracidade.

Conceitualização dos componentes referentes à veracidade dos dados.

Dentre as ferramentas apresentadas, constam as Politifact, TruthGoggles, Stylewriter e AftertheDeadline, que auxiliam as análises textuais: Politifact e TruthGoggles, por exemplo, foram desenvolvidas para o entendimento de informações jornalísticas e notícias políticas, já Stylewriter e AfterDeadline, ajudam a identificar problemas linguísticos e estilísticos na escrita.

Por fim, são discutidas as várias maneiras de analisar o problema da verificação de conteúdo das mídias sociais, a exemplo da detecção de mensagens enganosas (ou pistas linguísticas), fontes de mensagens na rede, reputação, confiabilidade, credibilidade, expertise e possibilidade de propagação de rumores. Dentre os conceitos, destacamos “Astroturfing by Social Bots“, que trata da detecção de bots (algoritmos criados para imitar humanos), principalmente no Twitter, utilizados como contas falsas para mascarar os patrocinadores e manipuladores de mensagens, debates e até de organizações, que podem produzir conteúdos e interações automáticas relacionadas à injúrias ou não. Aproveitando o tema, a autora também apresenta o BotOrNot, renomeado para Botometer, sistema que avalia e mede perfis do Twitter que exibem semelhanças com as características conhecidas dos bots sociais (bots com características de usuários humanos, mas que apresentam modelos robóticos, como auto-respostas e auto-postagens, dentre outras medidas).

Exemplo de pesquisa na ferramenta:

Em conclusão, a autora descreve este capítulo como um apelo para uma maior investigação no desenvolvimento de análises, bem como a modificação e aplicação de métodos para detecção mais assertiva de informações deturpadas. Lembrando ainda que a abordagem deve incluir análises de textos, análise de rede e incorporação de banco de dados de conhecimento mundial, para aproveitar plenamente a consciência linguística, interpessoal e contextualização destes diversos modelos de informações.

Ao analisar as mídias sociais para conteúdo potencialmente enganoso, nota-se a importância de aplicar métodos que considerem não apenas o que está sendo dito, mas também, como a mensagem está sendo apresentada: por quem, em qual formato e em qual contexto.

Para você que se interessou e deseja aprender mais sobre como identificar as características dos bots e perfis fakes para manipular debates em mídias digitais, estamos lançando o curso online Algoritmos, Bots e Manipulação do Debate nas Mídias Sociais. Aproveite e se inscreva na lista de espera, em breve lhe avisaremos quando estará disponível.

postrelacionados

Comentários

comments

Deixe um comentário