A Google deu um passo significativo no desenvolvimento da Inteligência Artificial (IA) focada na protecção de dados com o lançamento do VaultGemma, um modelo de linguagem natural (LLM) de mil milhões de parâmetros treinado inteiramente com privacidade diferencial. Desenvolvido em parceria com o Google DeepMind, o VaultGemma é, até ao momento, o maior modelo de código aberto do género e marca uma nova fase na construção de sistemas de IA que combinam desempenho com segurança de dados. Segundo a empresa, o projecto reforça a sua resposta à crescente procura global por soluções tecnológicas que respeitem a privacidade, especialmente nos sectores de saúde, financeiro e jurídico, onde dados confidenciais são constantemente utilizados. Ao contrário dos métodos tradicionais de anonimização, a privacidade diferencial insere ruído estatístico no processo de treino do modelo de IA, garantindo que nenhuma informação individual possa ser identificada ou memorizada pela máquina. No caso do VaultGemma, a técnica aplicada foi o Descenso Gradiente Estocástico Privado Diferencial (DP-SGD), que utiliza algoritmos matemáticos para limitar a influência de cada dado no resultado final do modelo. Como resultado, mesmo que existam dados sensíveis num único ponto do conjunto de treino, o modelo não será capaz de os reconhecer ou reproduzir. A novidade reside não só na utilização da privacidade diferencial, mas também no facto de o VaultGemma ter sido treinado inteiramente a partir do zero, sem depender de bases de dados ou modelos pré-existentes. O modelo foi disponibilizado abertamente nas plataformas Hugging Face e Kaggle, com pesos e documentação técnica acessíveis a programadores e investigadores. Com o VaultGemma, a Google procura demonstrar que é possível cumprir os requisitos legais e, ao mesmo tempo, permanecer competitivo no campo da Inteligência Artificial De acordo com o site Época Negócios, o modelo foi desenvolvido com base nas chamadas “leis de escala com privacidade diferencial”, um conjunto de fórmulas que ajudam a calibrar o tamanho do modelo, os lotes de dados e o número de interacções, optimizando o equilíbrio entre utilidade e segurança. Embora o VaultGemma ainda não alcance os resultados de modelos mais modernos sem privacidade, como o GPT-4, por exemplo, está no mesmo nível de modelos robustos lançados há cerca de cinco anos, como o GPT-2 com 1,5 mil milhões de parâmetros. Em benchmarks académicos-padrão (HellaSwag, BoolQ, PIQA, SocialIQA, TriviaQA, entre outros), o desempenho do VaultGemma foi próximo ao dos modelos tradicionais da mesma categoria, mostrando que privacidade e funcionalidade podem coexistir de forma prática. Com foco em aplicações que exigem um alto grau de confiança e transparência, o VaultGemma é adequado para uso em ambientes que lidam com informações confidenciais, como empresas de tecnologia médica, bancos, escritórios de advocacia e plataformas de governança digital. O lançamento ocorre num momento estratégico, marcado por uma crescente pressão regulatória em torno da recolha e utilização de dados pessoais, especialmente na União Europeia, nos Estados Unidos e na América Latina. Com o VaultGemma, a Google procura demonstrar que é possível cumprir os requisitos legais e, ao mesmo tempo, permanecer competitivo no campo da Inteligência Artificial.

Post a comment

Your email address will not be published.

Related Posts