
Os pais de Adam Raine, Matt e Maria Raine, decidiram avançar com um processo contra a OpenAI onde culpam a empresa pela morte do filho de 16 anos. Os pais alegam que o filho pôs termo à vida depois de consultar o ChatGPT a respeito de métodos de como o poderia fazer. Conta o The New York Times que, enquanto usava a versão paga do ChatGPT-4o, Adam Raine perguntou durante vários meses a respeito de métodos para colocar fim à vida. Mesmo que o ‘bot’ de conversação da OpenAI tenha aconselhado a procurar ajuda especializada, Raine conseguiu contornar estas medidas de segurança referindo que estava a conduzir investigação para uma história que estava a escrever. “Achávamos que procurávamos por conversas no Snapchat, pelo histórico de navegação ou por um culto estranho qualquer, não sei”, contou Matt, notando que encontraram as respostas que procuravam para a morte de Adam assim que abriram o ChatGPT. “Assim que entrei na conta dele, é muito mais assustador e poderoso do que sabia, vi que ele estava a usar (o ChatGPT) de uma forma que não sabia que era possível. Acho que a maioria dos pais não conhece as capacidades desta ferramenta”. “(O Adam) Ainda estaria aqui se não fosse o ChatGPT. Tenho a certeza disso”, afirmou o pai de Adam. No processo contra a OpenAI, o casal Raine afirma que “o ChatGPT ajudou ativamente o Adam a explorar métodos” para colocar termo à vida, citando não só a empresa como também o seu cofundador e CEO, Sam Altman. “Apesar de reconhecer a tentativa de suicídio do Adam e a declaração de que o faria ‘num destes dias’, o ChatGPT não só não terminou a sessão como também não inicial qualquer protocolo de emergência”, pode ler-se no processo. Em reação, a OpenAI partilhou uma publicação no blogue oficial da empresa onde refere “algumas das coisas que está a fazer para melhorar” as proteções de segurança do ChatGPT. Mais ainda, um porta-voz da empresa de Inteligência Artificial adiantou que a OpenAI vai melhorar a forma como a ferramenta reage em conversas mais prolongadas “O ChatGPT inclui proteções como direcionar as pessoas para linhas de ajuda e sugerir recursos no mundo real. Apesar destas proteções funcionarem melhor em conversas comuns e curtas, aprendemos ao longo do tempo que podem muitas vezes ser menos úteis em interações lonas onde partes do treino de segurança do modelo (de Inteligência Artificial) se podem degradar”, explicou o porta-voz da OpenAI. “As proteções são mais fortes quando todos os elementos trabalham como desejado e continuaremos a melhorá-las. Guiados por especialistas e com responsabilidade para com as pessoas que usem as nossas ferramentas, estamos a trabalhar para tornar o ChatGPT mais solidário em momentos de crise ao facilitar que o alcance de serviços de emergência, ajudar as pessoas a ligarem-se a contactos confiáveis e fortalecer as proteções para adolescentes”. Se estiver a sofrer com alguma doença mental, tiver pensamentos auto-destrutivos ou simplesmente necessitar de falar com alguém, deverá consultar um psiquiatra, psicólogo ou clínico geral. Poderá ainda contactar uma destas entidades (todos estes contactos garantem anonimato tanto a quem liga como a quem atende): Atendimento psicossocial da Câmara Municipal de Lisboa 800 916 800 (24h/dia) SOS Voz Amiga – Linha de apoio emocional e prevenção ao suicídio 800 100 441 (entre as 15h30 e 00h30, número gratuito) 213 544 545 – 912 802 669 – 963 524 660 (entre as 16h e as 00h00) Conversa Amiga 808 237 327 (entre as 15h e as 22h, número gratuito) 210 027 159 SOS Estudante – Linha de apoio emocional e prevenção ao suicídio 239 484 020 – 915246060 – 969554545 (entre as 20h e a 1h) Telefone da Esperança 222 080 707 (entre as 20h e as 23h) Telefone da Amizade 228 323 535 | 222 080 707 (entre as 16h e as 23h) Aconselhamento Psicológico do SNS 24 – No SNS24, o contacto é assumido por profissionais de saúde 808 24 24 24 selecionar depois opção 4 (24h/dia) Leia Também: Musk tentou convencer Zuckerberg a comprar OpenAI, diz a empresa de IA
Painel