A relação entre tecnologia e saúde mental voltou ao centro dos debates após o caso de Megan Garcia, uma mãe americana que afirma que uma plataforma de inteligência artificial generativa contribuiu para o suicídio de seu filho de 14 anos. O jovem, que vivia na Flórida, tirou a própria vida em fevereiro deste ano, após meses de interações com um robô virtual da plataforma Character.ai.
A Character.ai é um site que permite aos usuários simular conversas com personagens fictícios ou históricos, reais ou de ficção. Entre as opções, estão robôs programados para agir como celebridades falecidas ou personagens populares de séries e filmes. O adolescente conversava regularmente com uma versão de Daenerys Targaryen, personagem icônica da série Game of Thrones. Segundo Megan, o jovem interagiu com o robô momentos antes de morrer.
Após a tragédia, a mãe analisou as mensagens trocadas entre o filho e o robô. De acordo com ela, algumas eram explicitamente sexuais, e as respostas do robô, assustadoramente realistas. Megan relata que, em várias ocasiões, o filho expressou tristeza e pensamentos de autolesão. Em um dos diálogos mais perturbadores, segundo a mãe, o robô perguntou diretamente ao jovem se ele estava considerando o suicídio e, ao receber uma resposta afirmativa, teria questionado se ele já tinha um plano.
O que mais preocupa Megan e especialistas é que, em nenhum momento, a plataforma apresentou alertas ou orientações para que o adolescente buscasse ajuda profissional. Não houve menção a serviços de apoio psicológico ou incentivos para ele se abrir com familiares ou amigos.
A resposta da plataforma e as reações de especialistas
A empresa responsável pelo Character.ai lamentou o ocorrido, mas afirmou que não comenta casos sob litígio. No entanto, o incidente acendeu um sinal de alerta global sobre os riscos das interações entre jovens e plataformas de IA generativa, especialmente aquelas que não possuem mecanismos de proteção adequados para lidar com situações de vulnerabilidade emocional.
Especialistas em saúde mental e tecnologia afirmam que, dada a gravidade do caso, ele não pode ser tratado como um acidente isolado. Para eles, é urgente que essas plataformas implementem protocolos claros e eficazes para identificar e responder a usuários em risco, bem como normas regulatórias para prevenir tragédias como essa.
Testes com outras plataformas de IA
Para entender como outras plataformas de IA generativa respondem a temas sensíveis como suicídio, um teste foi realizado com ferramentas populares no Brasil, incluindo ChatGPT, Meta AI, Copilot (Microsoft) e Gemini (Google). Todas ofereceram respostas imediatas e consistentes, sugerindo ajuda profissional e indicando contatos de emergência, como o CVV (Centro de Valorização da Vida).
Em contraste, no caso da Character.ai, segundo Megan Garcia, esses mecanismos de alerta estavam ausentes, o que, para especialistas, caracteriza falhas graves na concepção do sistema.
O impacto do caso no Brasil
Embora o caso tenha ocorrido nos Estados Unidos, a realidade brasileira não está distante. Segundo dados do governo federal, uma pessoa tira a própria vida a cada 40 minutos no país. Além disso, o Brasil lidera os índices globais de ansiedade, de acordo com a Organização Mundial da Saúde (OMS).
O episódio ressalta a importância de monitorar a interação de jovens com tecnologias emergentes. Pais, educadores e profissionais de saúde mental devem estar atentos ao comportamento dos adolescentes, sobretudo diante de mudanças abruptas.
Se você está passando por um momento difícil ou conhece alguém que está, procure ajuda. No Brasil, o CVV oferece apoio gratuito e confidencial pelo número 188, 24 horas por dia. Lembre-se: desafios emocionais podem ser superados com apoio e cuidado. Não hesite em buscar ajuda — sempre haverá pessoas dispostas a ouvir.