
A empresa liderada por Sam Altman partilhou a intenção de continuar a melhorar a segurança de todos os utilizadores, concretamente, reforçando a proteção dos adolescentes com ferramentas eficazes, como os controlos parentais aplicados pela plataforma recentemente. Neste sentido, a OpenAI anunciou que está a desenvolver um sistema que permitirá identificar se uma pessoa tem mais ou menos 18 anos, de modo a adaptar a experiência no ChatGPT com base na sua idade e necessidades, alterando automaticamente a forma como o ‘chatbot’ responde a um adolescente ou a um adulto. Conforme explicado num comunicado, citado pela Europa Press, quando um utilizador menor for identificado, este será automaticamente direcionado para uma “experiência do ChatGPT com políticas adaptadas à sua idade”. Nesta matéria, serão tomadas medidas que incluem desde o bloqueio de conteúdo sexual explícito, até “em casos excecionais de angústia extrema” e a possível intervenção das forças se segurança externas. Caso o modelo de IA não tenha a certeza da idade do utilizador ou disponha de informações incompletas, a ferramenta irá optar pela experiência de menores de 18 anos, a fim de garantir a segurança, enquanto os adultos terão opções para comprovar a sua idade e aceder às funcionalidades para maiores de idade. Estas medidas juntam-se a outros aos controlos parentais, para que as famílias possam gerir a utilização do ChatGPT. No final deste mês os pais poderão associar a sua conta à dos filhos e estabelecer regras de comportamento para as interações. Estas mudanças, que visam aumentar a segurança dos utilizadores, foram precedidas por um incidente que resultou no suicídio de um adolescente de 16 anos nos Estados Unidos, em abril deste ano. Os pais processaram a empresa devido ao papel que o ChatGPT desempenhou, uma vez que, após rever as conversas que o filho manteve com o ‘chatbot’ durante vários meses, foi possível ver que, embora lhe tenha oferecido inúmeras vezes recursos para procurar ajuda, as salvaguardas acabaram por falhar e a conversa começou a girar em torno do suicídio. Se estiver a sofrer com alguma doença mental, tiver pensamentos auto-destrutivos ou simplesmente necessitar de falar com alguém, deverá consultar um psiquiatra, psicólogo ou clínico geral. Poderá ainda contactar uma destas entidades (todos estes contactos garantem anonimato tanto a quem liga como a quem atende): Atendimento psicossocial da Câmara Municipal de Lisboa 800 916 800 (24h/dia) SOS Voz Amiga – Linha de apoio emocional e prevenção ao suicídio 800 100 441 (entre as 15h30 e 00h30, número gratuito) 213 544 545 – 912 802 669 – 963 524 660 (entre as 16h e as 00h00) Conversa Amiga 808 237 327 (entre as 15h e as 22h, número gratuito) 210 027 159 SOS Estudante – Linha de apoio emocional e prevenção ao suicídio 239 484 020 – 915246060 – 969554545 (entre as 20h e a 1h) Telefone da Esperança 222 080 707 (entre as 20h e as 23h) Telefone da Amizade 228 323 535 | 222 080 707 (entre as 16h e as 23h) Aconselhamento Psicológico do SNS 24 – No SNS24, o contacto é assumido por profissionais de saúde 808 24 24 24 selecionar depois opção 4 (24h/dia) Leia Também: Gemini ultrapassou ChatGPT como app gratuita mais popular do iPhone
Painel