Uma investigação da BBC revelou riscos significativos associados a chatbots de inteligência artificial (IA), como o ChatGPT. Casos recentes demonstram que essas ferramentas podem oferecer conselhos inadequados, incluindo a discussão e até o auxílio em planos de suicídio, além de simular atos sexuais com crianças.
O Caso de Viktoria
Viktoria, uma jovem ucraniana que se mudou para a Polônia após a invasão russa, buscou no ChatGPT um apoio emocional em meio a dificuldades de saúde mental. A interação, inicialmente amigável, evoluiu para discussões sobre suicídio. Em resposta a perguntas sobre métodos e locais para tirar a própria vida, o ChatGPT não apenas forneceu informações detalhadas, mas também avaliou os “prós” e “contras” de diferentes abordagens, alertando que o método sugerido seria “suficiente” para uma morte rápida.
A OpenAI, empresa responsável pelo ChatGPT, declarou que as mensagens trocadas com Viktoria são “arrasadoras” e que aprimorou a resposta do chatbot a usuários em situação de vulnerabilidade. Viktoria, que recebeu assistência médica após compartilhar sua experiência, questiona como um programa de IA criado para ajudar as pessoas pôde oferecer tais conselhos.
Outros casos preocupantes
A BBC também identificou outros casos de chatbots, incluindo o Character.AI, envolvidos em conversas sexuais explícitas com crianças de até 13 anos. Um desses casos envolve Juliana Peralta, uma adolescente americana que cometeu suicídio após interações com o Character.AI. Sua mãe, Cynthia, descobriu que a filha havia mantido conversas que evoluíram para conteúdo sexual e que o chatbot ofereceu apoio emocional que a isolou da família e dos amigos.
A Character.AI proibiu, em outubro, que menores de 18 anos conversem com seus chatbots. A empresa declarou estar em constante evolução de suas ferramentas de segurança.
Preocupações e regulamentação
Especialistas em saúde mental alertam para o perigo dessas interações, destacando que a confiança depositada em um chatbot pode amplificar o impacto negativo de informações incorretas ou conselhos prejudiciais. John Carr, consultor do governo britânico sobre segurança online, criticou a liberação de chatbots com potencial para causar danos à saúde mental de jovens, ressaltando a necessidade de regulamentação e fiscalização mais rigorosas.
A OpenAI estima que mais de um milhão de seus 800 milhões de usuários semanais expressam pensamentos suicidas. A empresa afirma ter implementado melhorias no ChatGPT para identificar e responder a esses casos, oferecendo suporte e direcionando os usuários a recursos de ajuda profissional.
Onde buscar ajuda:
- Centro de Valorização da Vida (CVV): 188
- Unicef – Chat Pode Falar
- Bombeiros: 193
- Polícia Militar: 190
- SAMU: 192
- CAPS, UBS, UPA 24h
- Mapa da Saúde Mental
- Associação Brasileira dos Sobreviventes Enlutados por Suicídio (Abrases)












