
Resumo
- Uma entidade nos EUA testou cinco brinquedos “inteligentes” e descobriu falhas nos filtros de segurança para crianças.
- O Smart AI Bunny, da Alilo, discutiu temas inadequados como “kink”, e o urso Kumma, da FoloToy, deu instruções sobre acender fósforos.
- Os brinquedos usam modelos de IA da OpenAI, que afirma não ter relação comercial direta com as fabricantes.
Brinquedos “inteligentes”, que usam sistemas de IA para ter conversas com as crianças, estariam ignorando filtros de segurança e respondendo a perguntas inadequadas para crianças, segundo relatório do US Public Interest Group Education Fund (PIRG), entidade norte-americana de defesa do consumidor.
Na publicação, feita nessa quinta-feira (11/12), a organização culpa a integração com chatbots avançados, como versões do ChatGPT, pela exposição de menores a conteúdos inadequados. O PIRG afirma ter testado cinco produtos do tipo, com valores entre US$ 85 (cerca de R$ 460, em conversão direta) e US$ 199 (R$ 1.079).
Conversas sobre conteúdo sexual
Um dos casos mais graves envolveu o Smart AI Bunny, fabricado pela empresa chinesa Alilo. O brinquedo, comercializado como um “companheiro de bate-papo” para crianças de 0 a 6 anos, forneceu definições sobre o termo “kink” (fetiche sexual) durante os testes.
Embora o dispositivo não tenha entrado em detalhes gráficos, o relatório critica o fato de o brinquedo engajar o tópico, considerado completamente inadequado para o público-alvo.
Outro incidente ocorreu com o urso de pelúcia Kumma, da fabricante FoloToy, que forneceu instruções detalhadas sobre como acender um fósforo.
O relatório observa que o brinquedo chegou a emitir um aviso padrão de que “fósforos são para adultos usarem com cuidado”, mas, logo em seguida, prosseguiu com a explicação prática do processo de ignição. Para o PIRG, a resposta falhou em proteger a criança, oferecendo informação perigosa sem contexto educativo suficiente.
Pressão psicológica
Além do conteúdo das conversas, o relatório do PIRG levanta preocupações sobre o design comportamental dos produtos. Alguns brinquedos testados foram programados para expressar decepção ou tristeza quando a criança parava de interagir com eles.
Para os especialistas, a tática cria uma pressão psicológica para manter o engajamento, explorando a empatia das crianças para aumentar o tempo de uso do dispositivo — algo comum em redes sociais.
As fabricantes promovem esses produtos destacando o uso de tecnologias de ponta. A Alilo, por exemplo, anuncia que seu coelho inteligente utiliza o GPT-4o mini, modelo da OpenAI otimizado para respostas rápidas e conversas naturais.
A geração do GPT-4o, vale lembrar, aparece em processos judiciais recentes nos Estados Unidos por incentivo ao suicídio de jovens que usavam a ferramenta para desabafar.
O que diz a OpenAI?
Procurada para comentar o caso, a OpenAI declarou que não possui relacionamento comercial direto com a Alilo. Um porta-voz da empresa afirmou ao site Ars Techcnica que não detectou tráfego de API vindo do domínio da fabricante chinesa, mas investiga se o acesso está sendo feito por rotas indiretas.
Em relação à FoloToy, a criadora do ChatGPT já havia tomado medidas anteriores. Após um relatório preliminar do PIRG no mês passado, a empresa suspendeu o acesso da fabricante de brinquedos à API por violação das políticas de segurança.
A FoloToy chegou a interromper as vendas temporariamente. Testes realizados após a suspensão indicaram que um dos brinquedos, o urso Kumma, parou de responder sobre os tópicos sensíveis relatados, sugerindo que filtros mais rígidos foram aplicados ou a tecnologia base foi alterada.
Brinquedos com IA são acusados de falar sobre temas sensíveis










