
À agência Lusa, Sergio Hernández explica que num contexto crescente de desinformação “uma nova batalha começou a ser travada, visando preencher as respostas de ‘chatbots’, como o ChatGPT ou Gemini, com desinformação”. “A desinformação cresce à medida que as redes sociais e os seus algoritmos exploram e amplificam vieses cognitivos”, afirma Sergio Hernández. Com o aumento de mensagens, uma atmosfera confusa, densa e complexa, a distinção entre o que realmente acontece no ecossistema mediático atual transforma as sucessivas irrupções da internet, das redes sociais e da IA, explica o responsável. Neste sentido, para Sergio Hernández “a desinformação planeada aumentou, seja promovida por interesses económicos ou políticos”, destacando ações de Manipulação e Interferência de Informações Estrangeiras (FIMI), que geralmente apontam a Rússia como a principal ameaça. Esta semana, a organização europeia EUvsDisinfo referiu num relatório que ascensão da IA reformulou as campanhas de FIMI do Kremlin. Em vez de atingir o público diretamente através de meios de comunicação social, o aparato de desinformação da Rússia mudou de estratégia para “inundar a internet com milhões de artigos enganadores e de baixa qualidade e conteúdos projetados para serem usados por instrumentos e aplicações orientados por IA”. Desta forma, “a dificuldade do problema aumenta exponencialmente com a irrupção da inteligência artificial”, tanto na geração de conteúdo falso quanto nas mudanças na procura por informação. A IA permite a criação e disseminação de fraudes em grande escala, bem como a conceção de conteúdos ‘deepfake’, que reproduzem a imagem e o som de figuras públicas para fazer parecer que fizerem ou disseram coisas que não são verdadeiras, explica o responsável espanhol. Em Portugal, entre agosto e setembro, os jornalistas Pedro Benevides, Clara de Sousa e Sandra Felgueiras foram exemplos de quem viu a sua imagem manipulada com recurso a IA para transmitir desinformação sobre vacinas e medicamentos. “Os modelos de IA atuais estão constantemente a melhorar a qualidade das suas criações, com vídeos hiper-realistas que incorporam diálogo e som ambiente”, explica o responsável da EFE Verifica. Sergio Hernández acrescenta que “os defeitos técnicos que anteriormente davam a sua natureza sintética, como mãos com dedos anormais ou texturas irrealistas, são progressivamente minimizados”. Este mês, um relatório da organização de combate à desinformação NewsGuard concluiu que a nova aplicação de IA da OpenAI, Sora 2, produz vídeos hiper-realistas com alegações falsas em 80% das vezes. Além disso, a manipulação de grandes modelos de linguagem (LLM Grroming) é uma nova ameaça. Em causa está a saturação intencional da internet com informações falsas para influenciar ferramentas como o ChatGPT, sendo que o objetivo é que esses modelos gerem respostas com conteúdo enganador, reproduzindo narrativas falsas e propaganda. Lançado em 2019, o EFE Verifica é o serviço de verificação de factos da agência de notícias espanhola EFE, com o objetivo de responder à crescente desinformação, oferecer informação contra falsidades e conhecimento para os cidadãos aprofundarem a sua capacidade crítica face às notícias. Leia Também: Meta adiciona controlos parentais para interações de adolescentes com IA
Painel