A pesquisadora do Instituto Superior Técnico (IST), Sofia Pinto, destacou que os atuais mecanismos de verificação de fatos exigem muito tempo, o que contribui para a disseminação generalizada de desinformação. Nesse contexto, a verificação automatizada de fatos pode apresentar uma solução eficaz.
«A verificação manual de fatos jornalísticos é o método tradicional para lidar com notícias falsas. No entanto, essa tarefa, que demanda muito esforço, frequentemente não se adequa à magnitude do problema», afirmando que a verificação automatizada de fatos (AFC, na sigla em inglês) surge «como uma possível solução», conforme mencionado no artigo “Verificação de fatos automatizada e explicada para jornalistas”, de autoria de Sofia Pinto.
A verificação automatizada de fatos utiliza ferramentas de Inteligência Artificial (IA), neste caso, modelos de linguagem em grande escala (LLMs) que geram automaticamente conjuntos de dados destinados à verificação, apoiando outras abordagens nesse âmbito.
Embora «a verificação humana seja essencial para mitigar os impactos negativos das notícias falsas», o documento salienta que «a viralização de algumas alegações muitas vezes transforma essa atividade demorada em algo ineficaz».
Em entrevista à Lusa, Sofia Pinto, especialista em IA do IST, esclarece que um dos objetivos do projeto é acelerar a identificação de desinformação, uma vez que “há um intervalo significativo entre a viralização de uma postagem online e a publicação de um desmentido por parte da mídia”.
«O trabalho jornalístico de verificar e elaborar explicações sobre notícias falsas ou manipuladas exige tempo e recursos que dificultam a interrupção dessa partilha viral no início, o que poderia conter a sua ampla difusão», acrescenta.
Para a pesquisadora, «o tempo que leva para que sejam desmentidas faz com que as notícias falsas ou manipuladas, quando repetidas indiscriminadamente, se tornem “verdades” aceitas por quem as consome, enquanto os desmentidos elaborados pelos fact-checkers nunca conseguem alcançar a mesma viralidade, pois o tema já não está mais em evidência, tornando-se notícias velhas».
Para auxiliar nesta tarefa, a docente propõe uma «ferramenta que permita aos jornalistas aprimorar sua capacidade de reagir mais prontamente à verificação de notícias».
O modelo desenvolvido «visa reduzir o tempo necessário para avaliar conteúdos com potencial de fake news», facilitando a verificação de fatos em conteúdos digitais, com o intuito de ajudar jornalistas a combater o fenômeno da desinformação.
O sistema de IA realiza automaticamente todos os passos de verificação que são habitualmente realizados manualmente por jornalistas profissionais, precisando apenas da identificação da declaração a ser verificada.
O utilizador tem acesso a cada etapa tomada na coleta de evidências, às fontes utilizadas para compilar as informações e a um veredicto com base nessas informações. Além disso, o modelo gera um artigo explicativo que justifica as razões que sustentam o veredicto.
Sofia Pinto admite que, embora o modelo «tenha sido desenvolvido e testado em inglês, seria muito interessante desenvolver e avaliar sua performance em uma variante em português».
O estudo envolveu a participação de mais de uma centena de jornalistas profissionais, com o intuito de validar o funcionamento do modelo e aferir a qualidade das explicações geradas.
A iniciativa, desenvolvida por alunos do IST, faz parte do projeto CIMPLE, que busca pesquisar e desenvolver explicações criativas e inovadoras de IA social, baseada no conhecimento, e testá-las na detecção e rastreamento de informações manipuladas.
O CIMPLE fundamenta-se em modelos de criatividade humana, tanto na manipulação quanto na compreensão da informação, para criar explicações mais acessíveis, reconfiguráveis e personalizáveis.
