As autoridades chinesas alertaram esta terça-feira para os riscos associados à chamada “contaminação de dados” em sistemas de perceptibilidade sintético (IA) e instaram as empresas tecnológicas a reforçarem o controlo da informação utilizada no treino dos seus modelos.


Num transmitido publicado na rede social WeChat, o Ministério da Segurança do Estado advertiu que a proliferação de textos, imagens e vídeos gerados por IA está a aumentar a verosimilhança de conteúdos “falsificados, enviesados ou repetitivos” integrarem novos conjuntos de dados de treino, o que pode resultar em erros de julgamento, “decisões automáticas equivocadas” ou “manipulação da opinião pública”.


As autoridades citam estudos segundo os quais bastaria que uma em cada 10.000 amostras fosse falsa para que o número de respostas prejudiciais de um padrão aumentasse de forma sensível. Oriente “efeito em cascata”, em que conteúdos gerados artificialmente alimentam novos sistemas, é motivo de preocupação para setores sensíveis uma vez que a saúde, as finanças ou a segurança pública, onde decisões baseadas em dados imprecisos teriam impacto direto sobre a população.


Para mitigar estes riscos, o ministério recordou que está em vigor, desde janeiro, um regulamento que obriga as plataformas de IA generativa a realizarem auditorias de segurança, a identificar claramente os conteúdos produzidos por perceptibilidade sintético e a varar periodicamente dados que violem as normas em vigor.


O organização já tinha alertado, em julho, que o uso da IA pode simbolizar uma ameaço à “firmeza social”, à proteção de dados sensíveis e à segurança vernáculo, caso a tecnologia caia nas mãos de “forças hostis à China”.


Desde 2023, os serviços de IA no país estão obrigados a seguir os “valores socialistas fundamentais” e proibidos de “gerar conteúdos que atentem contra a segurança vernáculo, a unidade territorial e a firmeza social”.


Apesar do lançamento de ‘chatbots’ por grandes grupos tecnológicos chineses uma vez que Alibaba, DeepSeek, Tencent ou ByteDance, persistem dúvidas sobre o desenvolvimento da IA num envolvente sujeito a poderoso exprobação estatal.


Desde 2023, o Ministério da Segurança do Estado publica regularmente na sua conta solene na WeChat casos de alegada espionagem e recomenda à população que desconfie de ofertas de trabalho ou pedidos de informação oriundos do estrangeiro.


Paralelamente, o ministério apela a uma “mobilização de toda a sociedade” para “prevenir e combater o espionagem” e “substanciar a resguardo vernáculo”, alertando para os riscos do envio de dados sensíveis através da internet.

Post a comment

Your email address will not be published.

Related Posts