PUBLICIDADE
ArtigosDestaqueNotícias

Câmara dos Deputados aprova projeto de proteção de crianças em ambiente digital

*Por: Ândrea Malcher

O plenário da Câmara dos Deputados aprovou, na noite desta quarta-feira, 20, por votação simbólica, isto é, sem registro nominal de votos, o projeto de lei que protege crianças e adolescentes em ambiente digital (PL 2628/22). Devido a mudanças, o texto retorna ao Senado.

O relator Jadyel Alencar (Republicanos-PI) uniu oposição e governo em torno do texto, após o youtuber Felca denunciar a adultização e exploração de crianças e adolescentes nas redes sociais, com ênfase no canal de Hytalo Santos, que acabou preso.

No plenário, foram aceitas duas de 17 emendas. Uma de redação que obriga as empresas a disponibilizar “mecanismos técnicos de mediação parental de acesso facilitado que permitam aos pais ou responsáveis exercer o controle sobre a forma com que crianças e adolescentes usam o serviço, possibilitando a restrição de: a) conteúdos, por faixa etária; b) dados pessoais tratados; c) interação com outros usuários; e d) transações comerciais”.

A outra emenda determina que “os fornecedores de produtos ou serviços de tecnologia, incluindo os provedores de aplicações e sistemas operacionais, não poderão adotar padrões de design enganosos ou manipulativos que comprometam a autonomia do usuário, especialmente em aplicações acessíveis a crianças e adolescentes, considerando dentre as práticas a serem evitadas, sem prejuízo de outras, conforme regulamento: I. envio de notificações excessivas ou em período noturno; II. alternativas adequadas à implementação de linhas do tempo ou feeds de conteúdo infinitos; III. reprodução automática de conteúdos audiovisuais; IV. alternativas adequadas ao uso de mecanismos de comparação social ou de aparência física, tais como curtidas, ranqueamentos ou métricas públicas de engajamento”.

Mais cedo, o tema foi debatido em uma comissão geral, que contou com especialistas no tema e representante da Meta. A ministra dos Direitos Humanos, Macaé Evaristo, ressaltou que a falta de regulação na internet tem contribuído para a “manutenção da impunidade” de práticas prejudiciais a grupos vulnerabilizados.

A gerente de Segurança e Bem-Estar da Meta na América Latina, Taís Niffinegger, destacou que a empresa investe na detecção e remoção de conteúdos impróprios e que conta com mais de 40 mil colaboradores na área de segurança.

Além disso, ela pontuou que as políticas da Meta não permitem nudez, abuso e exploração de menores. “Também temos regras contra formas mais implícitas de sexualização. Utilizamos tecnologia para identificar comportamentos suspeitos de adultos”.

A diretora de relações institucionais da organização Conselho Digital, Roberta Jacarandá, apontou que a Constituição, o Estatuto da Criança e do Adolescente, o Marco Civil da Internet e a Lei Geral de Proteção de Dados abordam a proteção das crianças como um dever da família, do Estado e de toda a sociedade e, nesse sentido, as plataformas têm assumido corresponsabilidade.

No entanto, este arcabouço legal ainda não é suficiente para proteger menores. “Hoje falamos de sistemas robustos de detecção e prevenção de conteúdos nocivos. Em 2024, a Meta removeu mais de 34 milhões de conteúdos ligados à exploração infantil de suas plataformas”, declarou.

.

“ECA Digital”

A matéria aprovada quer garantir a proteção das crianças e adolescentes e a prevenção do abuso, exploração e violência contra menores. Ao mesmo tempo, as normas buscam evitar a exploração comercial.

As regras valem para aplicativos, jogos, redes sociais e softwares usados por crianças e adolescentes. As fornecedoras destes serviços serão obrigadas a bloquear acesso a produtos e conteúdos impróprios, como abuso, violência, jogos de azar e riscos à saúde.

As empresas deverão limitar a coleta e o uso de dados pessoais de menores; proibir caixas de recompensas em jogos; e disponibilizar ferramentas de acompanhamento parental.

Crianças nas redes sociais

No caso das redes sociais, haverá a obrigação de vincular as contas de crianças às dos responsáveis; de alertar sobre riscos do uso por menores; de restringir conteúdos para atrair esse público; e aperfeiçoar a verificação de idade.

Pelas regras, quem descumprir as medidas poderá ser advertido, multado, suspenso ou até proibido de seguir em atividade. As multas vão de R$ 10 por usuário cadastrado na plataforma até R$ 50 milhões, dependendo da infração.

Em casos de violações, as big techs deverão denunciar conteúdos às autoridades, armazenar dados relevantes para a investigação e remover imediatamente conteúdos ofensivos denunciados, sem a necessidade de ordem judicial. As empresas terão um ano a partir da promulgação para se adaptar às regras.

governo também promete enviar até o fim da semana uma proposta de regulamentação das redes mais ampla.

*Ândrea MalcherMobile Time.

  • Os conteúdos assinados, são de responsabilidade de seus autores.

Deixe seu comentário aqui

Botão Voltar ao topo