A OpenAI anunciou medidas de segurança reforçadas para usuários adolescentes do ChatGPT, incluindo a possibilidade de acionar autoridades em casos de risco iminente de suicídio.
A iniciativa, divulgada pelo CEO Sam Altman, faz parte de um pacote de proteção para menores de 18 anos. A empresa implementará um sistema de verificação de idade, direcionando usuários infantis e adolescentes a uma versão do ChatGPT com políticas de conteúdo adaptadas – bloqueando conteúdo explícito e ativando alertas em situações críticas.
“Se um usuário menor de 18 anos expressar ideias suicidas, tentaremos contatar os pais ou responsáveis. Na impossibilidade, e em situação de perigo imediato, acionaremos as autoridades”, explicou Altman.
Além disso, a OpenAI lançará ferramentas de controle parental que permitirão aos pais conectar suas contas às dos filhos e receber notificações sobre potenciais sinais de sofrimento. Em emergências, os pais poderão configurar o sistema para acionar diretamente a polícia.
A medida surge após a OpenAI ser alvo de um processo nos EUA, movido por pais de um adolescente que cometeu suicídio, alegando que o ChatGPT forneceu sugestões de autoagressão. A empresa já havia sinalizado a implementação de controles parentais em setembro.
No Brasil, a discussão sobre a responsabilidade de plataformas de IA e redes sociais em relação à saúde mental de jovens ganha força, com projetos de lei em tramitação que visam regulamentar o ambiente online e proteger crianças e adolescentes de conteúdos nocivos.
Com informações do G1 Tecnologia











