
*Por: Ândrea Malcher
O plenário da Câmara dos Deputados aprovou, na noite desta quarta-feira, 20, por votação simbólica, isto é, sem registro nominal de votos, o projeto de lei que protege crianças e adolescentes em ambiente digital (PL 2628/22). Devido a mudanças, o texto retorna ao Senado.
O relator Jadyel Alencar (Republicanos-PI) uniu oposição e governo em torno do texto, após o youtuber Felca denunciar a adultização e exploração de crianças e adolescentes nas redes sociais, com ênfase no canal de Hytalo Santos, que acabou preso.
No plenário, foram aceitas duas de 17 emendas. Uma de redação que obriga as empresas a disponibilizar “mecanismos técnicos de mediação parental de acesso facilitado que permitam aos pais ou responsáveis exercer o controle sobre a forma com que crianças e adolescentes usam o serviço, possibilitando a restrição de: a) conteúdos, por faixa etária; b) dados pessoais tratados; c) interação com outros usuários; e d) transações comerciais”.
A outra emenda determina que “os fornecedores de produtos ou serviços de tecnologia, incluindo os provedores de aplicações e sistemas operacionais, não poderão adotar padrões de design enganosos ou manipulativos que comprometam a autonomia do usuário, especialmente em aplicações acessíveis a crianças e adolescentes, considerando dentre as práticas a serem evitadas, sem prejuízo de outras, conforme regulamento: I. envio de notificações excessivas ou em período noturno; II. alternativas adequadas à implementação de linhas do tempo ou feeds de conteúdo infinitos; III. reprodução automática de conteúdos audiovisuais; IV. alternativas adequadas ao uso de mecanismos de comparação social ou de aparência física, tais como curtidas, ranqueamentos ou métricas públicas de engajamento”.
Mais cedo, o tema foi debatido em uma comissão geral, que contou com especialistas no tema e representante da Meta. A ministra dos Direitos Humanos, Macaé Evaristo, ressaltou que a falta de regulação na internet tem contribuído para a “manutenção da impunidade” de práticas prejudiciais a grupos vulnerabilizados.
A gerente de Segurança e Bem-Estar da Meta na América Latina, Taís Niffinegger, destacou que a empresa investe na detecção e remoção de conteúdos impróprios e que conta com mais de 40 mil colaboradores na área de segurança.
Além disso, ela pontuou que as políticas da Meta não permitem nudez, abuso e exploração de menores. “Também temos regras contra formas mais implícitas de sexualização. Utilizamos tecnologia para identificar comportamentos suspeitos de adultos”.
A diretora de relações institucionais da organização Conselho Digital, Roberta Jacarandá, apontou que a Constituição, o Estatuto da Criança e do Adolescente, o Marco Civil da Internet e a Lei Geral de Proteção de Dados abordam a proteção das crianças como um dever da família, do Estado e de toda a sociedade e, nesse sentido, as plataformas têm assumido corresponsabilidade.
No entanto, este arcabouço legal ainda não é suficiente para proteger menores. “Hoje falamos de sistemas robustos de detecção e prevenção de conteúdos nocivos. Em 2024, a Meta removeu mais de 34 milhões de conteúdos ligados à exploração infantil de suas plataformas”, declarou.

.
“ECA Digital”
A matéria aprovada quer garantir a proteção das crianças e adolescentes e a prevenção do abuso, exploração e violência contra menores. Ao mesmo tempo, as normas buscam evitar a exploração comercial.
As regras valem para aplicativos, jogos, redes sociais e softwares usados por crianças e adolescentes. As fornecedoras destes serviços serão obrigadas a bloquear acesso a produtos e conteúdos impróprios, como abuso, violência, jogos de azar e riscos à saúde.
As empresas deverão limitar a coleta e o uso de dados pessoais de menores; proibir caixas de recompensas em jogos; e disponibilizar ferramentas de acompanhamento parental.
Crianças nas redes sociais
No caso das redes sociais, haverá a obrigação de vincular as contas de crianças às dos responsáveis; de alertar sobre riscos do uso por menores; de restringir conteúdos para atrair esse público; e aperfeiçoar a verificação de idade.
Pelas regras, quem descumprir as medidas poderá ser advertido, multado, suspenso ou até proibido de seguir em atividade. As multas vão de R$ 10 por usuário cadastrado na plataforma até R$ 50 milhões, dependendo da infração.
Em casos de violações, as big techs deverão denunciar conteúdos às autoridades, armazenar dados relevantes para a investigação e remover imediatamente conteúdos ofensivos denunciados, sem a necessidade de ordem judicial. As empresas terão um ano a partir da promulgação para se adaptar às regras.
O governo também promete enviar até o fim da semana uma proposta de regulamentação das redes mais ampla.

*Ândrea Malcher – Mobile Time.
- Os conteúdos assinados, são de responsabilidade de seus autores.