
Vários são os exemplos de informação errada ou falsa dada pelos modelos de inteligência artificial generativa (com capacidade de criar conteúdos), onde se inclui motores de pesquisa. “Penso que este tipo de situações vai diminuir no sentido em que as ferramentas vão evoluindo, as ferramentas vão-se tornando mais precisas”, considera João Leitão Figueiredo, que admite que “nunca será possível eliminar em absoluto o erro”. Até porque “quanto mais informação, maior a probabilidade de ocorrer o erro, ainda que exista esta evolução técnica”, prossegue, sublinhando que “é normal” que tal aconteça, uma vez que “até o ser humano pode cometer erros e lapsos na associação de um nome a um determinado facto, mas existem sempre formas de reagir”. “Temos sempre o DSA, o ‘Digital Services Act'”, o regulamento dos serviços digitais, “que permite aos titulares contactarem diretamente os proprietários, independentemente da sua origem, para solicitar essa correção”. Por exemplo, recentemente em Portugal a Google teve de corrigir os conteúdos falsos sobre quem era Anabela Natário, depois da jornalista e escritora ter feito queixa à tecnológica. “Depois, se houver alguma questão que não seja cumprida, tem meios próprios, nomeadamente com a autoridade de supervisão de cada um dos Estados-membro”, no caso da União Europeia, aponta João Leitão Figueiredo. Depois, é preciso não esquecer “um facto que é relevante: existe também uma sobreposição regulatória ou o Regulamento Geral sobre Proteção de Dados”, no caso de pessoas singulares, de titulares dos dados e têm toda a proteção também do RGPD, recorda. Portanto, “temos aqui vários níveis e formas de reação, temos é que ser conscientes que estas ferramentas que todos nós muito gostamos de utilizar para demonstrar alguma modernidade são meras ferramentas que podem cometer erros como quaisquer outras”, adverte o advogado da CMS Portugal. João Leitão Figueiredo alerta ainda que existem “infinitas possibilidades de utilização de inteligência artificial, existem pessoas que se dedicam a fabricar ‘deepfakes’, entrevistas, o que seja”. Por isso, “penso que era importante também diferenciar estas duas situações, que é a ferramenta de recolher informação cuja qualidade é bastante reduzida ou nula e produzir ‘outputs’ incorretos e aquelas pessoas que se dedicam a utilizar as ferramentas para produzir conteúdos que são eles próprios ilícitos”, enfatiza. O jurista sublinha que se tem visto “a miúde que estes mecanismos não estão a funcionar da forma mais adequada” e, perante isto, também tem havido reações diferentes a nível judicial nos vários países onde estas questões se têm vindo a colocar. Em Portugal, “ainda não conhecemos nenhuma situação específica, ou segundo cremos não há nenhuma situação específica, mas já existem algumas, nomeadamente nos Estados Unidos, em que se coloca em causa inclusivamente a imunidade das plataformas, a famosa section 230 da legislação americana”. Perante um quadro “ainda evolutivo, as pessoas têm uma possibilidade de atuação diretamente junto dos fabricantes, mas também podem sempre recorrer aos meios legais porque está a ser divulgada uma informação falsa por parte deste tipo de ferramenta”. Para todos os efeitos, existe “a responsabilidade civil e, em casos mais gravosos ou conscientes, a responsabilidade eventualmente penal para estas matérias”, diz. Em suma, “existe sempre um mecanismo, não é fácil porque estamos a lidar com empresas de grande dimensão, mas existe sempre esta possibilidade”, remata João Leitão Figueiredo. Leia Também: ChatGPT? Apple ‘abre porta’ às rivais Anthropic e Perplexity
Painel