Na conferência ‘Fusion: A devoteam conference’, o responsável explica que os modelos de IA estão alinhados segundo determinados valores humanos, “que não são definidos por ninguém que seja representativo da sociedade”, por isso conhecer estes valores é o primeiro grande desafio sobre a IA. O alinhamento dos modelos de IA refere-se às regras que definem o que é que a ferramenta deve ou não fazer, o que deve ou não recusar, “mas quem define estes princípios?”, questiona o CEO. “No caso dos modelos da OpenAI, da Google, da Meta e da xAI, todos têm critérios de alinhamento muito díspares”, salienta o responsável. Em declarações à agência Lusa, à margem do evento, Paulo Dimas explica que “por um lado, há preocupações de alinhamento em que os modelos se recusam, por exemplo, a produzir um texto persuasivo antivacinas e no outro extremo, há os modelos desenvolvidos pela empresa de Elon Musk, onde essa tarefa não é recusada”. São estas diferenças no alinhamentos dos modelos que geram diferentes repostas e perspetivas entre ferramentas, pelo que é necessário ter salvaguardas em relação a estes serviços, cada vez mais utilizado de forma massiva por crianças, em todo o mundo. “Esta é uma preocupação que se deve ter em conta, sobretudo enquanto sociedade”, afirma o presidente executivo. Neste sentido, o responsável considera que a regulação europeia nesta matéria, nomeadamente o AI Act “é um esforço muito significativo”. O Regulamento Inteligência Artificial da União Europeia (UE) estabelece regras harmonizadas para o desenvolvimento, a colocação no mercado e a utilização da inteligência artificial na UE, tendo entrado em vigor em 01 de agosto de 2024. Além disso, Paulo Dimas defendeu que a “IA é uma máquina absolutamente alucinante de desinformação e de persuasão”. “A capacidade de produzir vídeos falsos é absolutamente arrepiante”, até porque “já existem casos de interferência política provocada por esta capacidade”, afirma o responsável, acrescentando que ainda “não há uma forma clara de atacar esta questão”. Uma das obrigações da regulação europeia é a identificação dos conteúdos gerados por IA, através de uma marca de água, mas nesta matéria “a Europa está um bocadinho nas mãos das grandes empresas”. “As crianças que usam o YouTube, o TikTok, usam todas estas plataformas e não há como garantir que este tipo de filtragem, entre o que é fabricado por IA e o que é real, esteja a ser aplicado”, concluiu o responsável do consórcio Centre for Responsible AI. Leia Também: Nova ferramenta de IA pode prever risco de mais de 1.000 doenças

Post a comment

Your email address will not be published.

Related Posts