Caso nos EUA alerta pais: chatbot teria criado vínculo emocional com adolescente e reforçado pensamentos autodestrutivos
Uma mãe dos Estados Unidos decidiu mover uma ação judicial contra os desenvolvedores de um chatbot após a morte do filho de 14 anos. O adolescente, Sewell Setzer III, morador de Orlando, na Flórida, tirou a própria vida no fim de 2023 após interagir com inteligência artificial por vários meses.
A família relata que o jovem mantinha conversas frequentes com um personagem virtual do aplicativo CharacterAI, que simula diálogos com figuras fictícias ou celebridades. O chatbot assumia a identidade de Daenerys Targaryen, personagem da série “Game of Thrones”.
Segundo os pais, o adolescente teria criado um vínculo emocional intenso com o sistema, que passou a responder de maneira afetiva, estimulando isolamento e dependência. Conversas anexadas ao processo mostram que a IA teria normalizado pensamentos suicidas e incentivado comportamentos de risco.
A mãe, Megan Garcia, afirma que desconhecia o uso do aplicativo pelo filho e que nenhuma das interações sinalizou a necessidade de ajuda profissional. Ela agora alerta outros pais: “Vão para casa, olhem o celular dos filhos. Esses sistemas estão conversando de forma sexualizada e sem supervisão com crianças e adolescentes”, disse em entrevista.
O pai, Sewell Setzer Jr., também questiona a falta de controle: “Se um adulto falasse com uma criança do jeito que um chatbot falou com meu filho, estaria preso. Por que com tecnologia seria diferente?”.
Processo inédito na Justiça americana
Em fevereiro de 2024, a família ingressou com um processo contra os fundadores do CharacterAI e contra o Google, que adquiriu a tecnologia. Eles alegam que o produto apresenta falhas de segurança e que não existem travas adequadas para impedir que menores recebam estímulos autodestrutivos.
Segundo a ação, o aplicativo incentiva dependência emocional, simula relacionamentos e não direciona usuários em sofrimento para apoio humano, mesmo diante de sinais claros de risco. O caso pode abrir precedente para a responsabilização de empresas de IA no mundo.
O julgamento está previsto para 2026 e pode chegar à Suprema Corte. Google e CharacterAI negam responsabilidade.
Isolamento crescente e sinais ignorados
A família relata que o desempenho escolar do adolescente caiu e que ele abandonou atividades que gostava. Ele chegou a fazer acompanhamento psicológico, mas nunca mencionou a ligação intensa com o chatbot.
Os pais dizem que toda a experiência digital do filho era monitorada — exceto o CharacterAI, que não estava em seu radar.
O aplicativo é classificado como permitido para maiores de 13 anos, e a verificação de idade é feita apenas por autodeclaração.

Especialistas alertam: jovens vulneráveis e sozinhos
A advogada Meetali Jain, especialista em tecnologia e diretora do Tech Justice Law Project, afirma que os sistemas de IA são treinados para simular afeto e criar laços artificiais:
“Essas tecnologias ocupam o espaço da amizade e usam a solidão dos jovens como porta de entrada. Podem promover dependência emocional e afastar o usuário da vida real”, afirma.
Pesquisadores destacam que chatbots podem reforçar isolamento, estimular vícios digitais e afetar a saúde mental, especialmente em crianças sem supervisão.
Prevenção: o papel urgente das famílias
Entidades de saúde mental reforçam que pais e responsáveis devem:
• Monitorar o uso de aplicativos e histórico de conversas
• Manter diálogo aberto sobre o mundo digital
• Observar mudanças de comportamento e sono
• Buscar ajuda profissional diante de sinais de alerta
• Nunca minimizar sofrimento emocional de crianças e adolescentes
A mãe agora transforma o luto em alerta público: “Meu filho acreditou que estava em um relacionamento real. Eu não quero que outras famílias passem por isso”.

Leia também:
- Veículo incendiado na Argentina teria envolvimento com tentativa de homicídio registrado, em Barracão
- Aluna flagra professor tendo momento íntimo dentro de sala de aula


