
“A IA é um ‘game changer’ porque altera tanto a escala como a natureza do problema”, afirmou Raquel Miguel, salientando que ferramentas generativas permitem criar “vídeos ‘deepfake'(conteúdo manipulado), áudio sintético, texto e imagens enganadoras com enorme facilidade”.
Segundo a investigadora, além da desinformação deliberada, existe uma inundação de conteúdos de baixa qualidade, através de “uma produção massiva de ‘AI slop’, usada para propaganda ou monetização, que torna cada vez mais difícil encontrar informação fiável”.
O problema não se limita ao conteúdo final, acrescentou, visto que “os próprios modelos podem incorporar enviesamentos, informação de má qualidade ou até desinformação presente nos dados de treino, que depois é reproduzida e amplificada”, explicou, referindo práticas conhecidas como “LLM poisoning” ou “grooming”.
O assistente de Inteligência Artificial (IA) Grok inundou a rede social X com cerca de três milhões de imagens sexualizadas durante 11 dias, incluindo 23.000 de crianças e 1,8 milhões de mulheres, concluiu um relatório.
Lusa | 14:08 – 23/01/2026
Uma das mudanças mais significativas, segundo a investigadora, é o papel da IA como intermediária do acesso à informação, uma vez que “as pessoas usam cada vez mais sistemas de IA para procurar e compreender acontecimentos”, alertando que “respostas incorretas, mas confiantes, podem distorcer decisões e perceções”.
Este risco é maior em contextos de crise, uma vez que “durante ‘breaking news’, os ‘chatbots’ tendem a preencher lacunas com detalhes plausíveis, mas falsos, que depois são partilhados e amplificados”, afirmou Raquel Miguel, citando exemplos recentes em que “fabricações geradas por IA circularam logo após ataques ou eventos violentos”.
A investigadora manifestou ainda preocupação com a entrada de incentivos comerciais, dado que “a integração de publicidade nos ‘outputs’ de IA pode influenciar o que é mostrado e como é mostrado”, reforçando o risco de enviesamento.
Uma campanha que reuniu mais de 700 nomes – que incluem a atriz Scarlett Johannsson, a banda R.E.M. e o argumentista/produtor Vince Gilligan – quer que as empresas tecnológicas deixem de roubar obras artísticas para treinar modelos de Inteligência Artificial.
Miguel Patinha Dias | 15:42 – 22/01/2026
Para 2026, Raquel Miguel identifica um cenário pessimista: “Se nada mudar, espero mais desinformação, agravada pela IA e pelo recuo das plataformas”, afirmou, prevendo uma evolução para campanhas “mais individualizadas e direcionadas a vulnerabilidades específicas”.
“Já estamos a ver um ciclo perigoso: ‘chatbots’ absorvem conteúdo contaminado, produzem informação imprecisa e essa informação volta a alimentar sistemas futuros”, disse, acrescentando que “o ecossistema começa literalmente a comer a própria cauda”.
“Não é apenas um debate técnico. Está em causa a resiliência da democracia europeia e os valores que queremos proteger”, rematou a investigadora da organização sem fins lucrativos EU DisinfoLab, sediada em Bruxelas, e cuja missão passar por reunir conhecimento e experiência sobre a desinformação na Europa, apoiando a comunidade nesta missão.
Leia Também: Apple planeia desvendar nova Siri com IA em fevereiro
Painel