Foto: Criação/ Portal Regional Notícias
O debate sobre a regulação das redes sociais no Brasil ganhou força em 2025 e envolve decisões do Supremo Tribunal Federal (STF), resoluções do Tribunal Superior Eleitoral (TSE), projetos de lei no Congresso e, mais recentemente, a repercussão do vídeo do youtuber Felca, que denunciou a chamada “adultização” de crianças na internet.
📲QUER MAIS NOTÍCIAS DE FEIRA DE SANTANA, BAHIA, DO BRASIL E DO MUNDO?
Clique aqui e entre em nosso grupo no Whatsapp
Clique aqui e entre em nosso grupo no Telegram
Em 26 de junho deste ano, o STF decidiu por oito votos a três que as plataformas digitais devem remover conteúdos considerados graves, como apologia ao nazismo, pornografia infantil, incentivo ao suicídio, ataques à democracia, racismo e violência contra mulheres, mesmo sem ordem judicial, bastando uma notificação extrajudicial.
Em 26 de junho deste ano, o STF decidiu por oito votos a três que as plataformas digitais devem remover conteúdos considerados graves, como apologia ao nazismo, pornografia infantil, incentivo ao suicídio, ataques à democracia, racismo e violência contra mulheres, mesmo sem ordem judicial, bastando uma notificação extrajudicial.
A decisão flexibilizou o artigo 19 do Marco Civil da Internet, aprovado em 2014, que determinava que a responsabilização só poderia ocorrer mediante ordem judicial. Para os ministros Dias Toffoli, Luiz Fux, Gilmar Mendes, Luís Roberto Barroso, Flávio Dino, Cristiano Zanin e Cármen Lúcia, entre outros que votaram a favor, a medida protege a sociedade de danos irreparáveis. Já juristas críticos à decisão alertam que o novo entendimento pode estimular as plataformas a removerem conteúdos preventivamente, o que abre espaço para censura privada e ameaça à liberdade de expressão.
Foto oficial dos ministros do STF registrada durante a posse de Dino no lugar de Rosa Weber - 22/2/2024 | Foto: Antonio Augusto/SCO/STF
O tema não é novo. Em 2020, o senador Alessandro Vieira (MDB), apresentou o Projeto de Lei 2630, o chamado “PL das Fake News”, que recebeu apoio do ministro Alexandre de Moraes e do governo federal. O projeto previa regras rígidas para responsabilizar empresas de tecnologia, mas foi arquivado em abril de 2024 pelo presidente da Câmara, Arthur Lira, diante de críticas de gigantes como Google e Meta e de organizações como Human Rights Watch. A preocupação era a mesma: a falta de clareza jurídica, riscos à privacidade e possibilidade de censura.
A repercussão sobre os limites da regulação cresceu ainda mais após o vídeo publicado em agosto pelo youtuber Felipe Bressanim Pereira, conhecido como Felca. No material intitulado “Adultização”, ele denunciou a exposição de crianças em conteúdos de teor sexualizado e acusou o algoritmo das plataformas de incentivar esse tipo de material, conhecido popularmente como “Algoritmo P”.
O vídeo viralizou, somando milhões de visualizações, e teve desdobramentos concretos: o influenciador Hytalo Santos foi preso em 15 de agosto pela Polícia Civil da Paraíba, após denúncias do Ministério Público; o presidente da Câmara, Hugo Motta, anunciou a análise de novos projetos de lei para coibir a exploração infantil digital; e o juiz Gláucio Ferreira, do TRF6, determinou que o YouTube exibisse aviso sobre a proibição de publicidade infantil abusiva.
Organizações como a Coalizão Direitos na Rede, a ARTIGO 19, o Instituto de Tecnologia e Sociedade (ITS Rio), a Abraji e a Fenaj reforçam que o Brasil precisa de regras mais claras e democráticas, que não deixem margem para abusos. Segundo essas entidades, proteger crianças e combater crimes graves é necessário, mas não se pode permitir que plataformas passem a remover conteúdos críticos ou jornalísticos de interesse público apenas para se proteger juridicamente. A preocupação também atinge o campo da inovação: especialistas da FGV e da Internet Society alertam que leis pouco claras aumentam os custos para empresas e prejudicam pequenos criadores de conteúdo.
Na prática, a discussão está dividida entre dois pontos fundamentais: como garantir proteção à sociedade, especialmente a crianças e adolescentes, e ao mesmo tempo preservar a liberdade de expressão, a privacidade e o espaço democrático de debate. O caso Felca mostrou que existem falhas graves na forma como as plataformas lidam com abusos, mas especialistas lembram que soluções apressadas ou mal definidas podem gerar novos problemas.
O consenso entre organizações independentes é de que qualquer lei deve ser precisa, transparente e construída com participação social. É preciso proteger sem censurar, fiscalizar sem quebrar a privacidade dos cidadãos, e responsabilizar sem sufocar o jornalismo ou a diversidade de opiniões.
Na prática, a discussão está dividida entre dois pontos fundamentais: como garantir proteção à sociedade, especialmente a crianças e adolescentes, e ao mesmo tempo preservar a liberdade de expressão, a privacidade e o espaço democrático de debate. O caso Felca mostrou que existem falhas graves na forma como as plataformas lidam com abusos, mas especialistas lembram que soluções apressadas ou mal definidas podem gerar novos problemas.
O consenso entre organizações independentes é de que qualquer lei deve ser precisa, transparente e construída com participação social. É preciso proteger sem censurar, fiscalizar sem quebrar a privacidade dos cidadãos, e responsabilizar sem sufocar o jornalismo ou a diversidade de opiniões.
Os riscos de seguir esse caminho
A experiência internacional mostra que, quando a regulação das redes sociais é conduzida de forma apressada e sem garantias democráticas, os maiores prejudicados são a liberdade de expressão e o próprio direito à informação. Um exemplo é a Argentina, onde medidas adotadas nos últimos anos por governos de viés progressista resultaram em forte controle da mídia digital, perseguição a jornalistas independentes e intimidação de criadores de conteúdo críticos ao poder. Em países como Nicarágua e Venezuela, ambos sob governos de esquerda, as leis de combate à “desinformação” e ao “discurso de ódio” foram usadas para silenciar opositores, restringir a atuação da imprensa e até criminalizar opiniões divergentes.
“Especialistas como Ivar Hartmann (Fundação Getúlio Vargas Direito), Carlos Affonso Souza (Intituto de Tecnologia e Sociedade do Rio de Janeiro), além de organizações como ARTIGO 19, Human Rights Watch e a Coalizão Direitos na Rede, alertam que o Brasil corre sério risco de repetir esse modelo. Se as plataformas passarem a remover publicações por medo de multas e processos, críticas legítimas ao governo, denúncias jornalísticas e opiniões divergentes podem ser eliminadas sem chance de defesa.”
+Leia mais informações sobre Brasil no site do Portal Regional Notícias
O paralelo internacional mostra que a fronteira entre “proteger” e “censurar” é muito fina. A sociedade brasileira precisa cobrar que o debate seja conduzido com equilíbrio, para que a regulação não vire instrumento político de silenciamento, mas sim uma ferramenta para garantir segurança digital sem abrir mão da democracia.
Portal Regional Notícias, com informações do repórter Allan Emanuel.
O paralelo internacional mostra que a fronteira entre “proteger” e “censurar” é muito fina. A sociedade brasileira precisa cobrar que o debate seja conduzido com equilíbrio, para que a regulação não vire instrumento político de silenciamento, mas sim uma ferramenta para garantir segurança digital sem abrir mão da democracia.
Portal Regional Notícias, com informações do repórter Allan Emanuel.







0 Comentários
Deixe o seu comentário: