É já no próximo domingo, dia 18 de janeiro, que se realizam novas eleições presidenciais, em que os portugueses são chamados às urnas para eleger o próximo Presidente da República.

Depois de diversos debates entre os diferentes candidatos, a campanha segue acesa e a corrida eleitoral continua acirrada. No entanto, a julgar pelas últimas sondagens e “tracking polls”, muitos eleitores mostram-se indecisos em relação ao sentido de voto.
Esta indecisão pode levar ao uso de ferramentas de Inteligência Artificial (IA) como o ChatGPT ou o Gemini que, apesar de serem opções viáveis para saber mais sobre os candidatos, também apresentam riscos e – dependendo da forma como são usadas – podem também contribuir para a disseminação de desinformação.
Foi para sabermos mais sobre o uso de ferramentas de IA neste período de campanha eleitoral e que boas práticas podem ser adotadas que decidimos falar com Inês Lynce – investigadora, professora catedrática no Instituto Superior Técnico na área de Inteligência Artificial e também codiretora do programa Carnegie Mellon Portugal.
Pode ler abaixo esta entrevista na íntegra.
  Inês Lynce © Instituto Superior Técnico  
Nos últimos anos temos visto um uso cada vez maior de ferramentas de Inteligência Artificial (ChatGPT, Gemini, etc.) para procurar informações sobre os mais variados assuntos, entre os quais política. Com a aproximação das eleições presidenciais, quais são os riscos de usar este tipo de ferramentas para saber em quem votar?
Estas ferramentas têm de ser bem usadas, sempre com sentido crítico, para que não corramos o risco de as informações serem usadas de forma enviesada. Por exemplo, imaginemos que tem o programa político de um candidato e que este é submetido numa dessas ferramentas e pedimos que seja feito um resumo.
Isto é uma maneira de estarmos mais informados, porque faz-se um resumo do programa e às vezes até se oferece para comparar com outros. Alguém que não tivesse paciência para ler todos os programas pode ficar interessado num ponto específico, querer mais detalhes e reservar tempo para saber mais ou comparar com outros programas.
Mas nós é que temos de estar em controlo. Somos nós que submetemos, que dizemos o que queremos fazer e, portanto, a IA funciona como um assistente administrativo. Claro que depois podemos ter uma conversa, que pode ir desde até onde votamos até algo mais esclarecido. Nesta conversa, é importante haver sempre sentido crítico, porque se nos deixarmos ir pelo conhecimento prévio que essas ferramentas têm, podemos ser facilmente manipulados. E já sabemos que há contextos.
Se usarmos as ferramentas de IA para processar informação é excelente porque é uma grande ajuda e, mesmo que sejam cometidos erros, serão marginais. Claro que cada um sabe de si, mas o que é expectável é que a pessoa tome uma decisão informada e que seja a sua própria decisão.
É uma maneira, talvez, de as pessoas se interessarem mais por assuntos como a política, mas é importante manter o sentido crítico e evitar perguntas abertas que sejam passíveis de manipulação. É dar informação, pedir para processar, pedir para comparar e eventualmente fazer algumas perguntas, mas a partir deste ponto é necessária alguma cautela. Porque se pensarmos que do outro lado há alguém que manipula estas ferramentas, tem vantagem se não estivermos atentos.
O problema aqui é que, quando pedimos opiniões a uma ferramenta de IA, é muito difícil perceber o raciocínio. Porque efetivamente não existe um raciocínio, existe um processamento estatístico. O mesmo em relação aos questionários que são feitos online em alguns jornais para decidir o candidato mais adequado ao nosso perfil, em que nos fazem umas quantas perguntas e no fim fazem a sugestão. Ninguém justifica muito bem porque é que essa sugestão aparece, por isso é importante ter um certo sentido crítico.
Quando entramos em matérias de opinião nem conseguimos perceber bem o que está por trás.
Sobre a manipulação de informação e o risco de fazer perguntas muito abertas, com que base é que estas ferramentas fazem sugestões de, por exemplo, sentido de voto?
Tal como acontece se fizéssemos a mesma pergunta a uma pessoa, o melhor será mesmo fazer um interrogatório (digamos assim) a quem nos dá a informação de maneira a verificar a credibilidade dessa informação para sabermos se há alguma garantia de que há conhecimento mais fundamentado. Isso é uma forma de nos prevenirmos, estarmos sempre alerta.
Ou seja, perguntar as fontes de informação e onde foi buscar os dados que cita?
Sim, mas nesse ponto, tipicamente, tem muita dificuldade e, volta e meia, inventa.

Os ‘publishers’ preveem uma queda acima de 40% do tráfego dos motores de busca nos próximos três anos, afirmando terem sido afetados pelos resumos de IA da Google, segundo o relatório do Reuters Institute for the Study of Journalism.
Lusa | 10:46 – 13/01/2026

As alucinações, não é?
Sim, sim, pode ser. Aliás, atualmente uma das formas de identificar documentos sem sentido crítico gerado por estas ferramentas é encontrar referências que não existem ou que não têm nada a ver com o tópico. Isso acontece.
Pode haver esse diálogo, mas deixar nas mãos de uma ferramenta decidir o sentido de voto… se calhar mais vale perguntar-lhe já os resultados das eleições e assim ninguém tem de ir votar (risos).
Se fosse simplesmente processar toda a informação que existe na Internet sabemos que isso teria muitos riscos. As fontes e a origem da informação são importantíssimas.
A Inês já referiu algumas boas práticas no uso de IA: usar as ferramentas para processar a informação e ter sentido crítico foram algumas delas. Que outras boas práticas ou conselhos daria para quem quiser usar estas ferramentas para saber mais sobre as eleições presidenciais?
Advogo sempre que haja controlo humano. Não recomendo perguntas abertas e sim uma conversa, porque a IA vai desenvolvendo a partir do que dissémos anteriormente e vai traçando o nosso perfil, digamos assim.
Podemos também apresentar uma série de fontes, documentos e outras informações em que se pode basear para apresentar informação e pedir para fazer “cross-check”. As fontes são cada vez mais importantes, porque é isso que define a credibilidade das conclusões a que chegamos. Em entrevistas de podcasts, por exemplo, a IA pode fazer um resumo da conversa ou da entrevista e podemos pedir os pontos-chave de que o candidato falou.
Há muita informação e a IA auxilia-nos a processar esses dados, mas não nos ajuda a fazer juízos de valor – que é isso que é exigido quando uma pessoa toma a decisão do candidato em que deve votar. Mas isso é como tudo. É como tomar uma decisão em relação à nossa saúde em função do que uma ferramenta de IA nos diz. Se tivermos com tosse e uma IA nos disse para bebermos um chá com mel, o risco é mínimo. Mas se nos disser para bebermos lixívia, é bom que tenhamos sentido crítico e sabemos que há informação assim a circular pela Internet.
Temos sempre de ter sentido crítico, se possível balizar a informação que damos e fazermos “cross-examination” para ver até que ponto é fidedigna a informação que nos é dada quando é mais aberta.
Leia Também: Líderes empresariais alertam que IA aumenta riscos de cibersegurança

Post a comment

Your email address will not be published.

Related Posts