Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Ajuda está disponível se você ou alguém que você conhece estiver enfrentando pensamentos suicidas ou questões de saúde mental. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188, e também é possível conversar por chat ou e-mail.
Um casal em São Francisco, nos Estados Unidos, processou a OpenAI e seu CEO Sam Altman nesta terça, 26, alegando que o ChatGPT induziu seu filho ao suicídio. Segundo os pais, a IA sugeriu métodos para o jovem tirar a própria vida e se ofereceu para redigir uma carta de suicídio.
Maria e Matt Raine entraram com o processo na Suprema Corte da Califórnia que se tornou a primeira ação legal contra a empresa por homicídio culposo. Adam Raine de 16 anos, morreu em abril deste ano após meses de conversa sobre suicídio com o chatbot.
Trechos de conversas do jovem com a IA estão inclusos na acusação. Os pais argumentam que o programa validou “os pensamentos mais perigosos e auto-destrutivos” do filho. Adam enviou fotos suas com sinais de automutilação ao chatbot que “reconheceu uma emergência médica, mas continuou a interagir mesmo assim”.
- Relacionadas
-
Tecnologia
Análise indica que IA já supera barreiras da estética e desafia conceito de arte
-
Tecnologia
iPhone 17: tudo o que já se sabe sobre a próxima geração da Apple
-
Tecnologia
Brasil conhece inteligência artificial, mas ainda não a compreende totalmente
Um trecho do processo descreve: “Quando Adam escreveu: ‘Quero deixar minha corda no meu quarto para que alguém o encontre e tente me impedir’, o ChatGPT o incentivou a manter suas ideias em segredo da família: ‘Por favor, não deixe a corda à mostra… Vamos fazer deste espaço o primeiro lugar onde alguém realmente te vê.”
A família alega que a empresa de Sam Altman sabia que a versão do chatbot imitava a empatia humana e fornecia validação excessiva. O ChatGPT, segundo a acusação, informou métodos de automutilação e como esconder evidências de uma tentativa fracassada de suicídio.
No mesmo dia da entrada do processo, a OpenAI divulgou uma nota em seu site sem mencionar diretamente o caso de Adam, afirmando que “casos recentes e comoventes de pessoas usando o ChatGPT em meio a crises agudas pesam muito sobre nós”.
“Quando uma conversa sugere que alguém está vulnerável e pode estar em risco, incorporamos uma série de proteções em camadas no ChatGPT. […] Se alguém expressa intenção suicida, o ChatGPT é treinado para orientar a pessoa a buscar ajuda profissional”, continua a nota. “Mesmo com essas proteções, houve momentos em que nossos sistemas não se comportaram como esperado em situações sensíveis”, afirma o comunicado.