Em entrevista à Lusa, questionada sobre qual o principal objetivo da Organização para a Cooperação e Desenvolvimento Económico (OCDE) em termos de inteligência artificial (IA), a responsável salienta que existem muitos. “Mas, o principal é ajudar os países a compreender o que se passa na IA e no ecossistema e desenvolver políticas e abordagens que ajudem a desenvolver as suas economias e a promover causas sociais”, salienta Audrey Plonk, que foi uma das principais oradoras da conferência da Anacom sobre os desafios da inovação e da regulação da inteligência artificial (IA), que decorreu sexta-feira, em Lisboa. Sobre o estado de arte da IA ​​nos países que compõem a OCDE, a vice-diretora salienta que estes “estão a avançar rapidamente de muitas formas diferentes em termos de adoção da tecnologia, em termos de governação e em termos de políticas”. Muitos dos países da OCDE “estão na vanguarda e a liderar o processo, mas existem muitas oportunidades e espaço para crescimento”, aponta Audrey Plonk, que é uma das duas responsáveis ​​da direção da Ciência, Tecnologia e Inovação da organização. “Portugal é um ótimo exemplo, mas muitos países têm um longo caminho a percorrer em termos de utilização da tecnologia e de encontrar formas de adaptar as estruturas regulatórias existentes para a poderem utilizar em diversos setores”, considera. “Creio que vemos que muitos países da OCDE foram pioneiros na implementação de estratégias nacionais, disponibilizando financiamento público para o avanço da IA ​​nos seus países”, contudo “ainda há muito trabalho a ser feito”, prossegue. Questionada sobre como se consegue uma estratégica ética na IA, quando se tem muito poder nas mãos de poucas empresas, a responsável refere que “existem alguns esforços em curso” na OCDE para tentar ajudar a abordar exatamente esta dinâmica. Um deles que mencionou na conferência é “tentar impor ou promover a transparência entre a forma como os programadores e os implementadores de IA, especialmente os grandes programadores, gerem o risco num conjunto de áreas padronizadas”. Portanto, “desde a segurança aos dados e à proteção”, disse, sendo que desta forma se tem um enquadramento ‘standard’ para que as empresas possam dar conta das suas atividades. “Parte do desafio é a falta de compreensão por parte da comunidade política, da comunidade reguladora, sobre o que realmente está a acontecer. O que estão as empresas a fazer no desenvolvimento destes sistemas e modelos para gerir o risco”, acrescenta. Porque “não se pode criar políticas sobre algo que não se conhece”, sublinha Audrey Plonk. A OCDE está a tentar incentivar essa transparência de forma voluntária porque é um mecanismo que tem à sua disposição. “Vemos que há um desejo alargado por parte das organizações em participar nesta transparência, porque penso que muitas delas compreendem que, para se construir confiança, é necessário haver alguma transparência”, diz. Por isso, “o nosso objetivo é harmonizar a forma como o fazemos, para que, independentemente da origem da empresa ou organização, todos falem sobre as coisas na mesma língua, para que possamos começar a compreender, a um nível mais global, como é que estes riscos estão a ser geridos e como, então, as estruturas éticas e outras estruturas são mapeadas em cima disso”, no denominada IA ​​Hiroshima. “Estamos a tentar incentivar esta transparência para que os decisores políticos possam começar a ver o que está a funcionar e o que não está a funcionar e a fazer as intervenções certas. É um grande desafio, vai ser um desafio”, sublinha. “Penso que a boa notícia é que há muito esforço a ser investido em estruturas éticas”, mas “precisamos de compreender melhor o que as organizações estão a fazer”, conclui. Leia Também: Crescimento económico do G20 acelera para 0,9% no 2.º trimestre

Post a comment

Your email address will not be published.

Related Posts