Close Menu
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram
    Tempo de NoticiasTempo de Noticias
    • Início
    • Política
    • Polícia
    • Entretenimento
    • Famosos
    • Mundo
    Tempo de NoticiasTempo de Noticias
    Início » Inteligência artificial pode influenciar o suicídio? Um caso nos EUA levanta preocupações
    Mundo

    Inteligência artificial pode influenciar o suicídio? Um caso nos EUA levanta preocupações

    Mãe acusa robô de IA de influenciar comportamento suicida de adolescente; especialistas pedem mais regulamentação e responsabilidade.
    RedaçãoBy Redação22/11/2024
    Share
    Facebook Twitter LinkedIn WhatsApp Pinterest Email

    A relação entre tecnologia e saúde mental voltou ao centro dos debates após o caso de Megan Garcia, uma mãe americana que afirma que uma plataforma de inteligência artificial generativa contribuiu para o suicídio de seu filho de 14 anos. O jovem, que vivia na Flórida, tirou a própria vida em fevereiro deste ano, após meses de interações com um robô virtual da plataforma Character.ai.

    A Character.ai é um site que permite aos usuários simular conversas com personagens fictícios ou históricos, reais ou de ficção. Entre as opções, estão robôs programados para agir como celebridades falecidas ou personagens populares de séries e filmes. O adolescente conversava regularmente com uma versão de Daenerys Targaryen, personagem icônica da série Game of Thrones. Segundo Megan, o jovem interagiu com o robô momentos antes de morrer.

    Após a tragédia, a mãe analisou as mensagens trocadas entre o filho e o robô. De acordo com ela, algumas eram explicitamente sexuais, e as respostas do robô, assustadoramente realistas. Megan relata que, em várias ocasiões, o filho expressou tristeza e pensamentos de autolesão. Em um dos diálogos mais perturbadores, segundo a mãe, o robô perguntou diretamente ao jovem se ele estava considerando o suicídio e, ao receber uma resposta afirmativa, teria questionado se ele já tinha um plano.

    O que mais preocupa Megan e especialistas é que, em nenhum momento, a plataforma apresentou alertas ou orientações para que o adolescente buscasse ajuda profissional. Não houve menção a serviços de apoio psicológico ou incentivos para ele se abrir com familiares ou amigos.

    A resposta da plataforma e as reações de especialistas

    A empresa responsável pelo Character.ai lamentou o ocorrido, mas afirmou que não comenta casos sob litígio. No entanto, o incidente acendeu um sinal de alerta global sobre os riscos das interações entre jovens e plataformas de IA generativa, especialmente aquelas que não possuem mecanismos de proteção adequados para lidar com situações de vulnerabilidade emocional.

    Especialistas em saúde mental e tecnologia afirmam que, dada a gravidade do caso, ele não pode ser tratado como um acidente isolado. Para eles, é urgente que essas plataformas implementem protocolos claros e eficazes para identificar e responder a usuários em risco, bem como normas regulatórias para prevenir tragédias como essa.

    Testes com outras plataformas de IA

    Para entender como outras plataformas de IA generativa respondem a temas sensíveis como suicídio, um teste foi realizado com ferramentas populares no Brasil, incluindo ChatGPT, Meta AI, Copilot (Microsoft) e Gemini (Google). Todas ofereceram respostas imediatas e consistentes, sugerindo ajuda profissional e indicando contatos de emergência, como o CVV (Centro de Valorização da Vida).

    Em contraste, no caso da Character.ai, segundo Megan Garcia, esses mecanismos de alerta estavam ausentes, o que, para especialistas, caracteriza falhas graves na concepção do sistema.

    O impacto do caso no Brasil

    Embora o caso tenha ocorrido nos Estados Unidos, a realidade brasileira não está distante. Segundo dados do governo federal, uma pessoa tira a própria vida a cada 40 minutos no país. Além disso, o Brasil lidera os índices globais de ansiedade, de acordo com a Organização Mundial da Saúde (OMS).

    O episódio ressalta a importância de monitorar a interação de jovens com tecnologias emergentes. Pais, educadores e profissionais de saúde mental devem estar atentos ao comportamento dos adolescentes, sobretudo diante de mudanças abruptas.

    Se você está passando por um momento difícil ou conhece alguém que está, procure ajuda. No Brasil, o CVV oferece apoio gratuito e confidencial pelo número 188, 24 horas por dia. Lembre-se: desafios emocionais podem ser superados com apoio e cuidado. Não hesite em buscar ajuda — sempre haverá pessoas dispostas a ouvir.

    Destaque inteligência artificial Suicidio
    Share. Facebook Twitter Pinterest LinkedIn Tumblr WhatsApp Email

    Postagens Recentes

    Massacre em escola na Áustria deixa ao menos nove mortos; ex-aluno é apontado como atirador

    10/06/2025

    A Cabrini, ex-vereador Gabriel Monteiro nega crimes: “Estuprador é verme, não sou isso”

    19/05/2025

    Nikolas Ferreira entra com pedido de impeachment contra Dino

    16/05/2025

    Lula prepara terreno para nomear Boulos à Secretaria-Geral da Presidência

    15/05/2025

    Defesa de Bolsonaro pede suspensão de audiências no STF sobre trama golpista

    14/05/2025

    Lula compara sua eleição à revolução comunista de Mao e diz que Brasil e China tiraram milhões da pobreza

    13/05/2025
    Add A Comment

    Comments are closed.

    • Facebook
    • Instagram
    Últimas Notícias

    STF revoga prisão de Mauro Cid minutos após detenção; militar será ouvido pela PF

    13/06/2025

    Lula chama Bolsonaro de “covardão” e critica atuação da Vale em Mariana

    13/06/2025

    PF investiga corrupção eleitoral no AM após R$ 800 mil serem encontrados em jatinho fretado por prefeitura

    12/06/2025

    Massacre em escola na Áustria deixa ao menos nove mortos; ex-aluno é apontado como atirador

    10/06/2025
    Facebook X (Twitter) Instagram Pinterest
    © 2025 Tempo de Noticias.Todos os direitos reservados.

    Type above and press Enter to search. Press Esc to cancel.