
No dia 02 de agosto de 2027 “teremos a plena aplicabilidade” do AI Act, depois de ter começado a ser aplicado em agosto do ano pretérito, refere, em entrevista à Lusa, o jurista e sócio de TMC do escritório de advogados CMS Portugal João Leitão Figueiredo. Já os sistemas de IA de finalidade universal têm regras a utilizar já a partir de hoje “Tivemos a segunda temporada, que foi em 02 de fevereiro” deste ano, nomeadamente com os “sistemas de IA que empreguem técnicas subliminares, sistemas de IA que explorem as vulnerabilidades das pessoas devido à sua idade, incapacidade ou situação socioeconómica, sistemas de IA para avaliação e classificação de pessoas”, ou seja, o ‘scoring social’ que tem sido utilizado na China, e os que criam bases de dados de reconhecimento facial, elenca o jurista. “Agora, a 02 de agosto, são aqueles sistemas de IA de finalidade universal” e o que é que “nos traz cá de próprio? É porque estes sistemas de IA de finalidade universal não são sistemas autónomos, ou em princípio não serão sistemas autónomos por si só”, mas funcionalidades de perceptibilidade sintético “integrados noutros sistemas”, prossegue João Leitão Figueiredo. De convenção com o regulamento, “estamos a falar de modelos de IA que têm um intensidade de generalidade considerável, podem realizar uma vasta gama de tarefas e podem ser integrados em vários sistemas ou aplicações de IA” e, “portanto, cá começam a surgir algumas obrigações”, diz. “Nomeadamente, os fornecedores ou prestadores de serviço que tenham estes modelos de IA de finalidade universal passam a ter que documentar o processo de formação e os resultados da sua avaliação, têm que planear, integrar o padrão de IA de finalidade universal nos seus sistemas e quais as suas características e requisitos legais”, enumera o perito. Têm também que “estabelecer uma política de cumprimento da legislação da União Europeia em material de direitos de responsável e direitos conexos, nomeadamente, à proteção dos textos e dos dados”, aponta. Esta “é outra das dúvidas que começa cá a assolar a Europa no seu êxtase de sobrerregulação”, considera João Leitão, ou seja, “agora de quem é que são os direitos e porquê é que se define e em que termos é que esta situação pode ser gerida”. Depois, “são obrigados a vulgarizar publicamente um resumo detalhado do teor utilizado para treinar o padrão” de IA de finalidade universal. “Supra de tudo cá, esta segmento parece-me mais relevante na medida em que assegura aquilo que é o princípio da transparência para que quem utilize levante tipo de sistemas de finalidade universal possa compreender exatamente porquê é que o seu fundador alimentou, qual foi o ‘input’ que foi oferecido ao padrão de IA para tornar um pouco mais previsível aquilo que venha a ser o ‘output’ gerado” por estes modelos de finalidade universal, salienta. A União Europeia “está preocupada com a utilização de sistemas de IA para finalidades que, de convenção com o quadro legislativo europeu, são claramente violadoras” e, neste contexto, “estamos a falar de utilização para controlo, monitorização e avaliação dos trabalhadores, os sistemas de ‘scoring’ na decorrência daquilo que se foi detetando na China, em que se as pessoas meramente contactassem com outras que têm uma avaliação ou um ‘score’ mais insignificante, poderiam perder pontos na sua avaliação”, contextualiza. Isto depois tem impacto quer no chegada ao crédito, quer a profissões, entre outros. “Depois (a UE) começou a preocupar-se com o outro elemento, que é o utilizador individual, mas também as empresas que começam gradualmente a integrar mais e mais sistemas” de IA no seu padrão de negócio e que precisam de mais dados “para tomar uma decisão informada”, diz. O legislador europeu veio a proferir “é que deverá ser explicado o padrão que é utilizado, mas também deverá ser explicada aquela brutalidade de informação que é necessária para nutrir o sistema de IA porque se não soubermos, ou não conseguirmos, pelo menos, estimar a qualidade do ‘input’, ou seja, dos materiais, documentos, o que quer que seja que serve para desenvolver a IA, nós (técnicos com capacidade de avaliação) não vamos conseguir” ter uma visão mais clara sobre o tema, prossegue. Em síntese, “não vamos conseguir também estimar a qualidade do ‘output’, por isso é que alguns sistemas de IA continuam a falhar na medida em que não é fácil mitigar ou anular o viés que resulta da informação que é carregada” no sistema. O jurista considera “um bom repto” analisar-se aquilo que é o DeepSeek chinês, ou o ChatGPT, ou outras ferramentas, “porque todos eles são alimentados com bases de dados, com informação que é distinta”. Também significa que, “em alguns momentos, os sistemas, no caso norte-americanos, podem ter uma vantagem”, na medida em que a informação que é carregada tem uma qualidade superior, mas noutros casos até pode ser o padrão de IA chinês ou de outro país. “Estou a falar nestes dois porque diria que são um bocadinho cá os titãs que se batem com o Copilot (Microsoft), ChatGPT (OpenAI), por um lado, e o DeepSeek pelo outro”, remata.
Painel