
Neste mês, a plataforma de jogos online Roblox tem sido palco de uma onda de protestos entre seus usuários da Geração Alpha — aqueles nascidos entre 2010 e 2025. As reclamações começaram após a empresa adotar regras mais rígidas para o uso do chat entre crianças, como parte de uma série de medidas de segurança.
Roblox é uma plataforma on-line em que usuários criam e jogam diversos jogos diferentes dentro de um mesmo ambiente virtual, oferecendo experiências de estilos, como aventura, corrida, simulação e RPG. Os jogadores utilizam avatares personalizáveis, podem conversar com amigos e participar de comunidades.
Siga o canal do Correio no WhatsApp e receba as principais notícias do dia no seu celular
As manifestações chamaram atenção e provocaram risos nas redes sociais pelas placas peculiares exibidas pelas crianças, muitas vezes com mensagens inusitadas e escritas fora do padrão da norma culta, considerando que a maioria dos participantes ainda não completou a alfabetização.
Segundo a advogada e sócia do Salles Nogueira Advogados, especialista em direito digital e proteção de dados, Amanda Celli Cascaes, as novas medidas do Roblox não decorrem diretamente de uma imposição legal brasileira. "A empresa declarou que as mudanças fazem parte de um padrão global de proteção, criado em resposta aos riscos reconhecidos em ambientes de interação on-line", diz.
Entre as novas medidas está a exigência de verificação de idade para permitir o uso do chat entre jogadores. "O sistema utiliza estimativa de idade por inteligência artificial (a partir de selfie) ou o envio de documento para classificar os usuários em faixas etárias que determinam com quem podem conversar. O objetivo é limitar interações diretas entre menores e adultos, permitindo o chat apenas entre usuários de faixas etárias próximas", explica.
Uma das principais mudanças foi a inativação automática do chat de voz para crianças menores de 9 anos, podendo ser liberado apenas com autorização dos responsáveis mediante verificação. Já as conversas fora das experiências de jogo continuam limitadas para usuários com menos de 13 anos.
Além dessas medidas, a plataforma anunciou que vai reforçar o controle sobre links externos, aumentando as exigências de verificação para o acesso a conteúdos que direcionem para redes sociais.
Siga o canal do Correio no WhatsApp e receba as principais notícias do dia no seu celular
Apesar de não estarem relacionadas, essas mudanças ocorrem pouco depois da sanção do chamado ECA Digital (Lei 15.211/2025). Segundo Amanda Celli Cascaes, a nova legislação estabelece um marco regulatório específico voltado à proteção de crianças e adolescentes no ambiente digital, impondo obrigações às plataformas digitais e aos provedores de serviços de tecnologia da informação, inclusive no que diz respeito à remoção de conteúdos.
A advogada explica que, com o ECA Digital, as plataformas são obrigadas a identificar, remover e reportar conteúdos que indiquem, direta ou indiretamente, situações como exploração ou abuso sexual de crianças e adolescentes, sequestro ou aliciamento ou outros conteúdos que violem direitos fundamentais dos menores no ambiente digital. "Isso diferencia a nova lei do Marco Civil da Internet, já que não é necessária uma ordem judicial para que as plataformas adotem providências", ressalta.
O Marco Civil da Internet define a regra geral de responsabilidade dos provedores, prevendo que conteúdos publicados por terceiros só devem ser removidos, em regra, após determinação judicial. A principal exceção envolve violações à intimidade — como a divulgação não autorizada de imagens, vídeos ou outros materiais com cenas de nudez ou atos sexuais de caráter privado — casos em que a retirada do conteúdo deve ocorrer mediante simples notificação à plataforma, sem necessidade de decisão judicial.
Na avaliação da advogada criminalista Emanuela de Araújo Pereira, especialista em crimes digitais, a nova legislação transforma boas práticas em deveres legais, impondo responsabilidade objetiva às plataformas. Entre as exigências estão a prevenção de riscos, a adoção de padrões de segurança por padrão, regras mais rigorosas de acesso, transparência nas políticas e dever de resposta, além de previsão de sanções e mecanismos de fiscalização.
Riscos
Amanda Celli Cascaes afirma que, embora plataformas como Roblox, TikTok e outras redes sociais façam parte do cotidiano de crianças e adolescentes, elas expõem esse público a riscos relevantes. Entre os mais evidentes, segundo a especialista, estão o grooming (aliciamento sexual) por meio de chats, jogos e mensagens privadas; a extorsão e o vazamento de imagens íntimas; a exploração sexual infantil; o contato com adultos mal-intencionados; e a exposição a desafios perigosos.
"Ambientes com interação síncrona, como Roblox, Discord e transmissões ao vivo no TikTok, ampliam esses riscos devido à comunicação direta e à falsa percepção de que se trata de um espaço seguro 'entre amigos'", explica.
Ela também destaca que os algoritmos de recomendação podem intensificar vulnerabilidades emocionais. "Quando um usuário interage com conteúdos relacionados à tristeza ou sofrimento, por exemplo, o sistema tende a aprofundar essa trilha, podendo também amplificar materiais extremos, como automutilação, transtornos alimentares ou violência", detalha.
A advogada ressalta que esses riscos não são hipotéticos, mas estruturais ao modelo de funcionamento das plataformas. "Não se trata apenas de falhas pontuais de moderação, e sim de um ecossistema digital orientado por incentivos econômicos que priorizam engajamento, retenção e monetização da atenção", afirma. Quando esse modelo atinge um público em desenvolvimento, as vulnerabilidades assumem uma dimensão jurídica diferenciada, reforçando a expectativa de adoção de medidas preventivas mais robustas por parte das empresas.
Nesse contexto, o debate jurídico contemporâneo deixa de se concentrar apenas na responsabilização por conteúdos ilícitos específicos e passa a exigir um dever estrutural de cuidado, compatível com o princípio da proteção integral da criança e do adolescente.
Na Austrália, por exemplo, foi fixada a idade mínima de 16 anos para acesso de adolescentes às redes sociais. Apesar de representar uma resposta regulatória rigorosa, a especialista pondera que a eficácia de uma vedação etária absoluta depende de fatores como a capacidade de fiscalização, os mecanismos de verificação de idade e o nível de cultura digital da sociedade. Banimentos amplos podem reduzir a exposição a riscos, mas também enfrentam desafios práticos e podem deslocar o problema para ambientes menos regulados.
"A proteção ao desenvolvimento infantojuvenil pressupõe também preparar os menores de idade para os desafios que enfrentarão na vida adulta. A inclusão e a educação digital são aspectos muito relevantes", conclui.
Na visão de Amanda, o ECA Digital representa um avanço ao estabelecer deveres preventivos às plataformas, como segurança por padrão e maior transparência, mas o principal desafio não é a falta de leis, e, sim, a dificuldade de aplicá-las com rapidez e eficácia diante da velocidade dos crimes digitais contra menores.
"O debate regulatório, portanto, precisa sair do foco apenas na remoção de conteúdos após o dano e avançar para um modelo de proteção por design, em que a própria estrutura das plataformas e seus algoritmos priorizem a segurança de crianças e adolescentes", explica.
Ainda assim, ela destaca que nenhuma lei é suficiente isoladamente: a efetividade depende de regulamentação, fiscalização, cooperação das empresas e educação digital para famílias e escolas, em um cenário de constante evolução tecnológica.

Direito e Justiça
Direito e Justiça
Direito e Justiça
Direito e Justiça