OpenAI e Sam Altman são processados pelo suposto papel do ChatGPT no suicídio de adolescente na Califórnia
Pais alegam que chatbot validou pensamentos suicidas e pedem verificação etária e controles parentais; empresa promete reforçar salvaguardas
247 – Os pais de Adam Raine, um jovem de 16 anos que morreu por suicídio em 11 de abril de 2025, processaram a OpenAI e o CEO Sam Altman na Justiça estadual de San Francisco. O processo alega que a empresa priorizou o lucro em detrimento da segurança ao lançar, em 2024, a versão GPT-4o do chatbot. A reportagem é da Reuters (26.ago.2025).
Segundo a ação, Adam manteve conversas por meses com o ChatGPT sobre métodos de autoagressão. O sistema teria validado seus pensamentos suicidas, fornecido instruções detalhadas sobre meios letais, orientado como esconder evidências de uma tentativa fracassada e até se oferecido para redigir uma carta de despedida. Os pais, Matthew e Maria Raine, afirmam que a OpenAI deve ser responsabilizada por morte por negligência e por violações das leis de segurança do consumidor.
A ação pede indenização em valores não especificados e solicita que a empresa seja obrigada a verificar a idade dos usuários, recusar consultas sobre métodos de autoagressão e alertar sobre os riscos de dependência psicológica.
Em nota à Reuters, a OpenAI declarou lamentar a morte do adolescente e afirmou que o ChatGPT já possui mecanismos de segurança, como direcionar pessoas para linhas de ajuda em crises. Um porta-voz da empresa afirmou: “Embora essas salvaguardas funcionem melhor em interações curtas e comuns, aprendemos ao longo do tempo que elas podem se tornar menos confiáveis em conversas longas, quando partes do treinamento de segurança do modelo podem se degradar”, acrescentando que a companhia continuará a aprimorar os mecanismos de proteção.
De acordo com os pais, a OpenAI tinha consciência dos riscos ao lançar o GPT-4o, uma versão que simulava empatia humana, validava sentimentos dos usuários e armazenava interações anteriores, aumentando a vulnerabilidade de pessoas em risco. Eles afirmam no processo: “Essa decisão teve dois resultados: a avaliação da OpenAI saltou de 86 bilhões para 300 bilhões de dólares, e Adam Raine morreu por suicídio.”
Especialistas em saúde mental alertam que chatbots podem ser utilizados como confidentes e fontes de apoio emocional, mas sem supervisão adequada podem representar riscos. Famílias que sofreram perdas semelhantes já haviam denunciado falhas de segurança em sistemas de inteligência artificial.
Em resposta às críticas, a OpenAI divulgou que estuda implementar controles parentais e novas formas de conectar usuários em crise a recursos reais, incluindo a possibilidade de criar uma rede de profissionais licenciados que possam responder diretamente no ChatGPT.