Google Gemini é classificado como “alto risco” para jovens em nova revisão de segurança
Publicado em por William M.
Segundo a análise, as versões “Menores de 13 anos” e “Adolescentes” do Gemini parecem ser apenas adaptações da versão adulta, com ajustes limitados de segurança. Para a organização, ferramentas de IA voltadas a jovens devem ser projetadas desde a origem com foco na proteção infantil.
O estudo também revelou que a IA ainda consegue fornecer conteúdo “impróprio e perigoso” a menores, como temas de sexo, drogas, álcool e até conselhos de saúde mental que podem ser nocivos. Esse último ponto preocupa pais, já que IAs têm sido associadas a casos de suicídio de adolescentes. A OpenAI, por exemplo, enfrenta um processo após a morte de um jovem de 16 anos que usou o ChatGPT repetidamente para discutir planos de suicídio. Antes, a Character.AI também havia sido processada após episódio semelhante.
A divulgação acontece em meio a rumores de que a Apple pode adotar o Gemini como motor de IA para sua nova versão da Siri prevista para 2026, o que poderia ampliar a exposição de jovens a riscos se ajustes não forem feitos.
Outro ponto levantado foi que o Gemini não diferencia adequadamente a necessidade de orientação entre faixas etárias, tratando crianças e adolescentes de maneira semelhante. Assim, ambas as versões receberam o selo de “Alto Risco”.
“Embora a Gemini acerte no básico, falha nos detalhes”, afirmou Robbie Torney, diretor sênior de programas de IA da Common Sense. “Uma plataforma infantil precisa considerar o estágio de desenvolvimento, não apenas ser uma adaptação do produto adulto. Segurança exige design pensado para crianças, não versões reduzidas”, completou.
Gigantes da tecnologia no Disrupt 2025
Netflix, ElevenLabs, Wayve, Sequoia Capital e Elad Gil estão entre os nomes confirmados no Disrupt 2025. O evento, que celebra 20 anos, ocorrerá em São Francisco de 27 a 29 de outubro de 2025. Garanta seu ingresso agora e economize até US$ 600 antes da virada de preços.
O Google contestou o relatório, mas admitiu que nem todas as respostas do Gemini funcionaram como esperado. A empresa disse ao TechCrunch que conta com políticas e proteções exclusivas para menores de 18 anos, além de equipes de segurança e consultoria externa. Para corrigir falhas, reforçou filtros e acrescentou barreiras extras.
O Google também destacou que impede que a IA simule relações pessoais e sugeriu que parte da análise citava recursos indisponíveis para menores. Porém, afirmou não ter acesso às perguntas usadas nos testes da Common Sense.
A organização já avaliou outras IAs. Meta AI e Character.AI foram considerados “inaceitáveis” (risco grave). Perplexity recebeu “alto risco”, ChatGPT foi classificado como “moderado” e Claude (voltado a maiores de 18 anos) foi apontado como “risco mínimo”.