Moraes defende responsabilização das big techs e diz que é “Impossível” controlar menores nas redes
Moraes afirmou que não é razoável esperar que pais ou responsáveis consigam controlar, sozinhos, o que crianças e adolescentes acessam no ambiente digital.
247 - Durante evento com influenciadores digitais realizado nesta quinta-feira (14), o ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes defendeu que as plataformas de redes sociais assumam responsabilidade pelo conteúdo publicado por seus usuários. As informações são do g1.
Moraes afirmou que não é razoável esperar que pais ou responsáveis consigam controlar, sozinhos, o que crianças e adolescentes acessam no ambiente digital. "É impossível você controlar o que o seu filho, a sua filha, o seu neto, sua neta está fazendo nas redes sociais”, disse o ministro. Ele lembrou que, mesmo fora do ambiente digital, os pais já enfrentavam limitações nesse tipo de controle.
A fala ocorreu em resposta a um influenciador que questionou o papel do STF na regulação das plataformas, especialmente após a repercussão do vídeo do criador de conteúdo Felca, que denunciou a exploração de crianças e adolescentes na internet.
Na ocasião, Moraes destacou a decisão do Supremo de junho deste ano, que estabeleceu que redes sociais podem ser responsabilizadas por conteúdos ilegais postados por usuários — especialmente se não removerem o material após serem notificadas de forma extrajudicial, ou seja, sem a necessidade de ordem judicial.
A decisão do STF também estabeleceu que, em casos de postagens impulsionadas ou patrocinadas, e nos conteúdos veiculados por robôs, as plataformas podem ser responsabilizadas mesmo sem notificação prévia. Só estarão isentas se comprovarem que agiram com diligência e rapidez para retirar o conteúdo.
Moraes ressaltou que a Corte foi “minimalista” ao definir os critérios, mas que era necessário agir diante da ausência de uma regulamentação legal específica. Segundo ele, as grandes empresas de tecnologia afirmaram, em reuniões anteriores, que têm plena capacidade de implementar sistemas de inteligência artificial para identificar e retirar conteúdos ilegais.
"Como eu disse, foi bem minimalista", afirmou Moraes. "Eu fiz várias reuniões com as Big Techs no tempo do TSE e todas disseram que é plenamente possível. É só preparar a inteligência artificial com essas características."
Entre os casos em que as redes devem agir imediatamente estão conteúdos relacionados a crimes como golpe de Estado, incitação ao terrorismo, violência política, exploração sexual de vulneráveis, tráfico de pessoas, incentivo ao suicídio ou à automutilação, entre outros.
Para Moraes, a decisão do STF ajuda a reduzir o tempo entre a publicação de conteúdo nocivo e sua remoção — especialmente em temas sensíveis envolvendo crianças. “Esse gap, nós esperamos em relação às crianças que salvem muitas vidas”, concluiu.
❗ Se você tem algum posicionamento a acrescentar nesta matéria ou alguma correção a fazer, entre em contato com [email protected].
✅ Receba as notícias do Brasil 247 e da TV 247 no Telegram do 247 e no canal do 247 no WhatsApp.
Vote agora no Brasil 247 no iBest 2025
Assine o 247, apoie por Pix, inscreva-se na TV 247, no canal Cortes 247 e assista: