O modelo em questão “procura reduzir o tempo necessário para avaliar conteúdos com potencial de ‘fake news'”, agilizando a verificação de factos de conteúdos digitais para auxiliar jornalistas a combater o fenómeno da desinformação, refere a universidade em comunicado. O sistema de IA executa automaticamente todos os passos de verificação de factos feitos manualmente por jornalistas profissionais, necessitando apenas da identificação do enunciado a provar. O utilizador tem acesso a todos os passos que são tomados na obtenção de evidências, as fontes utilizadas na compilação da informação e um veredito baseado nessa informação, sendo que o modelo gera ainda um artigo explicativo das razões que levam à atribuição do veredito em questão. “O sistema foi feito de forma a aumentar a capacidade dos jornalistas profissionais e não substituí-los”, garante, em comunicado, o autor do sistema e doutorando em engenharia informática e de computadores, Filipe Altoe. Para o autor, a funcionalidade constitui “uma ferramenta importante na luta contra ‘fake news’, podendo reduzir a viralidade daquelas que se espalham por vários dias sem contestação”. À agência Lusa, a professora universitária e responsável pelo projeto, Sofia Pinto, explicou que, embora o sistema tenha “sido desenvolvido e testado em inglês (…), seria muito interessante desenvolver e verificar como se comporta uma variante portuguesa”. O trabalho envolveu um estudo que contou com a participação de mais de uma centena de jornalistas profissionais, de forma a validar o funcionamento do modelo e verificar a qualidade das explicações geradas. O projeto foi aceite num total de apenas 11 trabalhos a nível mundial para serem apresentados na conferência International Joint Conference on Artificial Intelligence (IJCAI) que está a decorrer na cidade canadiana de Montreal, até 22 de agosto. Leia Também: IA não tem ganhos relevantes na receita e eficiência de empresas, diz MIT

Post a comment

Your email address will not be published.

Related Posts