A OpenAI está a trabalhar num novo sistema para o ChatGPT identificar automaticamente quando está a interagir com um adolescente ou menor de idade, de forma a activar uma experiência adequada à sua idade e bloquear conteúdo impróprio. A empresa, liderada por Sam Altman, partilhou a intenção de continuar a melhorar a segurança de todos os utilizadores, concretamente, reforçando a protecção dos adolescentes com ferramentas eficazes, como os controlos parentais aplicados pela plataforma recentemente. Neste sentido, a OpenAI anunciou que está a desenvolver um sistema que permitirá identificar se uma pessoa tem mais ou menos de 18 anos, de modo a adaptar a experiência no ChatGPT com base na sua idade e necessidades, alterando automaticamente a forma como o ‘chatbot’ responde a um adolescente ou a um adulto. Conforme explicado num comunicado, citado pela Europa Press, quando um utilizador menor for identificado, este será automaticamente direccionado para uma “experiência do ChatGPT com políticas adaptadas à sua idade.” Nesta matéria, serão tomadas medidas que incluem desde o bloqueio de conteúdo sexual explícito, até “em casos excecionais de angústia extrema” e a possível intervenção das forças se segurança externas. Estas medidas juntam-se a outras de controlos parentais, para que as famílias possam gerir a utilização do ChatGPT Caso o modelo de IA não tenha a certeza da idade do utilizador ou disponha de informações incompletas, a ferramenta irá optar pela experiência de menores de 18 anos, a fim de garantir a segurança, enquanto os adultos terão opções para comprovar a sua idade e aceder às funcionalidades para maiores de idade. Estas medidas juntam-se a outras de controlos parentais, para que as famílias possam gerir a utilização do ChatGPT. No final deste mês os pais poderão associar a sua conta à dos filhos e estabelecer regras de comportamento para as interações. Estas mudanças, que visam aumentar a segurança dos utilizadores, foram precedidas por um incidente que resultou no suicídio de um adolescente de 16 anos nos Estados Unidos, em Abril deste ano. Os pais processaram a empresa devido ao papel que o ChatGPT desempenhou, uma vez que, após rever as conversas que o filho manteve com o ‘chatbot’ durante vários meses, foi possível ver que, embora lhe tenha oferecido inúmeras vezes recursos para procurar ajuda, as salvaguardas acabaram por falhar e a conversa começou a girar em torno do suicídio. Fonte: Notícias ao Minuto
Painel