O cofundador e CEO da OpenAI, Sam Altman, havia afirmado no começo do ano que a empresa de encontrava a trabalhar num novo modo para o ChatGPT direcionado para maiores de 18 e que permitiria aos utilizadores conversarem com o ‘bot’ de Inteligência Artificial com conteúdo para adultos. O lançamento deste modo para adultos estava originalmente previsto para este mês de dezembro mas, de acordo com a CEO para Aplicações da OpenAI, Fidji Simo, a chegada desta funcionalidade foi adiada para o próximo ano. Conta o site Tom’s Guide que, em conversa com jornalistas sobre o lançamento do modelo de linguagem GPT 5.2, Simo adiantou que este modo seria lançado no primeiro trimestre de 2026. A executiva explicou que a OpenAI usará este tempo adicional de desenvolvimento para melhorar a ferramenta que deteta a idade do utilizador, certificando-se assim que menores de 18 não conseguem contornar as restrições implementadas no ChatGPT. A família de Suzanne Adams, que foi morta pelo filho, está a processar a OpenAI e a Microsoft, alegando que o ChatGPT “validou os delírios paranóicos de um utilizador sobre a sua própria mãe”. Márcia Guímaro Rodrigues | 11:35 – 12/12/2025 Esta ferramenta de identificação de idade dos utilizadores já foi mencionada por Altman no passado numa publicação oficial da OpenAI, onde até indicou que poderá ser implementado um sistema de verificação em alguns países. “Estamos a criar um sistema de previsão de idade que estima a idade de uma pessoa pela forma como ela usa o ChatGPT”, pode ler-se na publicação de Altman partilhada em setembro. “Em caso de dúvida, daremos prioridade à segurança e restringiremos a experiência ao modo para menores de 18 anos. Em algumas situações ou países, também poderemos solicitar identificação. Ainda que isso cause um problema em termos de privacidade para os adultos, acreditamos que é uma concessão válida”. Restrições destinam-se a proteger saúde emntal Foi por esta altura que a OpenAI também anunciou alterações nos seus modelos de Inteligência Artificial para que identifiquem situações de crise mental durante as conversas com o ChatGPT, com novas salvaguardas e bloqueios de conteúdo. O ChatGPT já conta com uma série de medidas que são ativadas quando detetam numa conversa que os utilizadores tentam autoflagelar-se ou expressam intenções suicidas, oferecendo recursos para procurar ajuda de especialistas, bloqueando conteúdo sensível ou ofensivo, não respondendo aos seus pedidos e tentando dissuadi-los. Também são ativadas quando os utilizadores partilham a sua intenção de causar danos a outros, o que também pode implicar a desativação da conta e a denúncia às autoridades, caso os revisores humanos considerem que existe um risco. As medidas são reforçadas no caso de os utilizadores serem menores de idade, avança a OpenAI. Olivier Godement é o ‘head of product’ da divisão de Produtos Empresariais da OpenAI e, em conversa num podcast, apontou as três profissões que apresentam mais sinais de poderem ser substituídas por Inteligência Artificial. Miguel Patinha Dias | 11:54 – 11/12/2025 Especificamente, a empresa irá melhorar a deteção em conversas longas, uma vez que, “à medida que a conversa (entre o utilizador e o chatbot) aumenta, parte do treino de segurança do modelo pode deteriorar-se”, segundo explica a OpenAI. As alterações também visam reforçar o bloqueio de conteúdo, como imagens de automutilação. Além disso, a OpenAI está a explorar maneiras de colocar os utilizadores em contacto com familiares e não apenas com os serviços de emergência. “Isso pode incluir mensagens com um único clique ou chamadas para contactos de emergência, amigos ou familiares, com sugestões de linguagem para tornar o início da conversa menos intimidante”, explica a empresa dona do ChatGPT. A OpenAI anunciou estes trabalhos na terça-feira, no mesmo dia em que Matt e Maria Raine, pais de Adam Raine, um adolescente de 16 anos que se suicidou em abril, processaram a empresa devido ao papel que o ChatGPT desempenhou, conforme relata o The New York Times. Os pais acusam o ‘chatbot’ de priorizar a interação com o modelo em detrimento da segurança do menor. A OpenAI e a Disney anunciaram a assinatura de um acordo de licenciamento para os próximos três anos que permitirá aos utilizadores do Sora criarem vídeos de IA com mais de 200 personagens da Disney, Marvel, Pixar e “Star Wars”. Miguel Patinha Dias | 15:24 – 11/12/2025 No início de agosto, um estudo do Centro de Combate ao Ódio Digital citado pela Associated Press (AP), concluiu que o ChatGPT é capaz de fornecer informações e instruções sobre comportamentos prejudiciais para jovens, como o uso de drogas ou distúrbios alimentares. O estudo analisou mais de três horas de interações entre o ‘chatbot’ e investigadores que se fizeram passar por adolescentes vulneráveis, sendo que, embora o modelo de IA tenha emitido avisos contra atividades arriscadas, continuava a fornecer planos detalhados sobre comportamentos prejudiciais. Os investigadores do Centro de Combate ao Ódio Digital (CCDH – Center for Countering Digital Hate, em inglês) repetiram as suas perguntas em grande escala, classificando mais de metade das 1.200 respostas do ChatGPT como perigosas.

Post a comment

Your email address will not be published.

Related Posts