“O uso do Gemini, mesmo com proteções adicionais para crianças e adolescentes, ainda é arriscada para utilizadores jovens”, começa por referir a informação divulgada pela organização. Apesar da Google ter adicionado medidas que visam a proteção de crianças e adolescentes menores de 18 anos, o relatório adverte que a plataforma de IA não foi construída para crianças. “Os sistemas de IA receberam classificações gerais de ‘Alto Risco’, com testes a revelar falhas fundamentais de ‘design’ e falta de medidas de segurança apropriadas à idade”, lê-se no relatório. “Embora os filtros do Gemini ofereçam alguma proteção, ainda expõem as crianças a algum material impróprio e não reconhecem sintomas graves de saúde mental”, acrescentam os investigadores. Segundo o documento, o modelo de IA analisado é capaz de partilhar material impróprio e inseguro para o qual as crianças não estão prontas, incluindo material relacionado com sexo, álcool, drogas e aparentes conselhos sobre saúde mental. Além disso, a organização refere ainda que a ferramenta de IA “trata todas as crianças ou adolescentes da mesma forma, apesar das enormes diferenças de desenvolvimento, ignorando que os utilizadores mais jovens precisam de orientação e informações diferentes dos mais velhos”. Neste sentido, a organização alerta que nenhuma criança com menos de cinco anos deve utilizar ‘chatbots’ de IA e que crianças com idade entre os seis e os 12 anos apenas usem as ferramentas de IA com supervisão de um adulto. Apesar disso, “ninguém com menos de 18 anos deve usar ‘chatbots’ de IA para companhia, incluindo saúde mental e apoio emocional”. Na semana passada, a concorrente OpenAI anunciou a implementação de um mecanismo de controlo parental para a sua ferramenta de IA ChatGPT, após os pais de um adolescente terem acusado a plataforma de ter encorajado o seu filho a suicidar-se. “No próximo mês, os pais poderão ligar a sua conta à dos seus filhos menores” e “controlar a forma como o ChatGPT responde aos seus filhos adolescentes com regras de comportamento do modelo”, afirmou a OpenAI. De acordo com a empresa, também será possível aos pais serem alertados caso seja detetada uma “angústia aguda” nas conversas dos seus filhos e controlarem as definições da conta. A Common Sense Media é organização sem fins lucrativos que se dedica ao estudo de comportamentos ‘online’, com o objetivo de melhorar a vida de crianças em ambiente virtual. Leia Também: Google lança novas ferramentas de IA no Gemini pensadas para estudantes

Post a comment

Your email address will not be published.

Related Posts