‘Fake news’ seguem padrões concretos. E os algoritmos já conseguem rastreá-los
A
inteligência artificial melhora sua precisão na hora de detectar
notícias falsas, embora a sofisticação desse conteúdo dificulte seu
trabalho
11 jun 2020 - 12:10 BRT
O
falso e o verídico seguem padrões determinados. Algo assim como um
código unívoco. O problema é que são tão complexos, em particular no caso das fake news,
que chega a ser possível confundir o falso com o real. Segundo um
relatório da consultoria Gartner, em 2022 consumiremos mais boatos que
informação verdadeira. Entretanto, alguns algoritmos
já conseguiram rastrear essa espécie de fórmula mágica e determinar
certas características. É o caso de uma pesquisa feita pela Universidade
de Granada (Espanha) e pelo Imperial College de Londres que permitiu à inteligência artificial entender as emoções emanadas pela linguagem e o impacto sociológico de um simples tuíte.
Juan
Gómez, integrante da equipe de pesquisa e professor de Ciências da
Computação na Universidade de Granada, reconhece que a complexidade das
mensagens dificulta encontrar estas estruturas de veracidade e
falsidade. “Há recursos visuais simples e chamativos, como os emoticons e as letras maiúsculas, que são pistas relevantes para identificar as fake news;
mas sua engenharia também evolui. Ou seja, os dados de treinamento que
usamos em um determinado contexto agora já não podem mais ser
aplicados.” Assim como as capacidades da inteligência artificial
evoluem, o maquinário dos boatos e mentiras evolui inclusive mais rapidamente.
Diante desta situação, Claire Wardle, diretora de pesquisa do projeto FirstDraft,
foge de um conceito único de desinformação. Em sua opinião, estamos
diante de pelo menos sete cenários diferentes, que vão da notícia
inventada ou manipulada até a sátira —que, embora sem intenção de causar
dano, tem um elevado potencial de induzir ao erro. “Se formos realmente
conter o problema em que nos encontramos, devemos compreender sua
gravidade e entender contra o que estamos lutando”,
afirma. Esta é a batalha interna travada pelo aprendizado de máquinas e
pelos programadores que as treinam: oferecer informações e variáveis
mais profundas para que cheguem a esse código universal da mentira.
Metadatos,
conteúdo, organização temática, contexto e coerência são alguns dos
sinais que Ricardo Baeza-Yates, diretor de Ciência de Dados da
Universidade Northeastern (Boston) e catedrático de Informática da
Universidade Pompeu Fabra (Barcelona), incorporou o uso de algoritmos
para prevenir a desinformação. Ele tenta que o machine learning
permita ao computador entender se um texto respeita a congruência
semântica, se os fatos mencionados existem e se há uma relação lógica no
seu conjunto. Não basta apenas rastrear bots
e a autoria. Outra questão é sua precisão. “Podemos nos permitir entre
60% e 80%. Acredito que seja um percentual razoável. Se você perguntar a
20 pessoas diferentes que notícias são mais confiáveis, nem entre elas
haverá unanimidade”, observa.
Os investigadores insistem
na inconveniência de depositar a responsabilidade da verificação
unicamente na tecnologia. Sua vantagem principal é contar com uma maior
capacidade de detecção. Baeza-Yates cita um exemplo elementar: o código
HTML. “É um sinal valioso para identificar essas estruturas falsas e que
não está exatamente ao alcance de todas as pessoas”, diz. Até mesmo o
excesso de coerência representa um marcador determinante,
e esses algoritmos imediatamente disparam o alarme. Como explica o
especialista, o ruído e a incoerência são características próprias do
ser humano.
A era da aprendizagem profunda
Um estudo da Iniciativa de Economia Digital do MIT, que tinha analisado 126.000 threads do Twitter,
determinou que a verdade demora aproximadamente seis vezes mais que a
mentira para alcançar 1.500 pessoas. Espalha-se mais longe e mais
rapidamente. Para melhorar a capacidade de rastreamento dos algoritmos das fake news,
pelo menos assim interpreta Gómez, chegou a hora de que a aprendizagem
profunda brilhe. “Ela pode ter a chave de algumas estruturas mais
sólidas. Percebemos que as técnicas de deep learning, como as que processam a linguagem natural, melhoram as estatísticas.”
Este cenário pode estar mais perto do que o previsto. Há não muito tempo, uns 10 anos, o spam paralisava as caixas de entrada, e agora está mais controlado graças ao aperfeiçoamento dos filtros, que evoluíram graças ao deep learning. O problema, embora a inteligência artificial melhore sua eficácia contra boatos, é que os criadores dessas informações falsas
continuarão refinando a técnica. Nas palavras de Baeza-Yates, será como
os vírus informáticos: todo ano aparece um novo que não sabemos como
desativar. “Trata-se de uma batalha eterna entre maus e bons. Como com a
evasão fiscal. Sempre há um subterfúgio pelo qual a desinformação
acabará se infiltrando.”
A margem de melhora dos
algoritmos é muito ampla, apesar de todos os avanços obtidos
recentemente. Uma margem um pouco estreita se atendermos às
considerações de Baeza-Yates. Seu nível de acerto depende dos dados, por
isso alguém precisa ser melhor que a máquina para ensiná-la. “Se formos
incapazes de encontrar artigos mais complexos, não poderemos treinar o
algoritmo para que detecte boatos cada vez mais sofisticados”, conclui.
A própria evolução das fake news também reduz as perspectivas para o machine learning. Gómez destaca que a ideia inicial na sua criação partia de mudar as opiniões sobre um fato.
Como isso é difícil, o salto foi para manter uma comunidade em alerta.
Fidelizar os simpatizantes. “Muitos textos são de consumo interno. Como
controlamos isso? Como a inteligência artificial consegue aprender
isso?”, questiona. Ninguém pretende que a tecnologia seja a única
responsável por diferenciar entre falso e verdadeiro, mas sim uma
ferramenta que ajude a decidir. Pouco a pouco se deixa enganar com menos
frequência, por mais que dificultemos.
Fonte: El País
Comentários
Postar um comentário
Todas postagem é previamente analisada antes de ser publicada.