STF retoma julgamento que pode mudar regras de responsabilidade das plataformas digitais
Corte já tem quatro votos em ação que discute se empresas como Google e Meta podem ser responsabilizadas por conteúdo sem ordem judicial
247 - O Supremo Tribunal Federal (STF) retomou nesta quarta-feira (11) o julgamento que pode redesenhar o marco jurídico de responsabilidade de empresas de tecnologia por conteúdos ilícitos gerados por seus usuários. O debate gira em torno da validade do Artigo 19 do Marco Civil da Internet, em vigor desde 2014, que determina que plataformas só devem ser responsabilizadas se descumprirem ordem judicial para remoção de conteúdo. A análise ocorre em regime de repercussão geral, o que significa que o entendimento do STF valerá para todas as instâncias da Justiça.
Segundo a CNN Brasil, para dar andamento ao julgamento, foram agendadas duas sessões: a primeira começou às 10h e a segunda está prevista para às 14h. Até o momento, quatro ministros já proferiram seus votos: Dias Toffoli, Luiz Fux, Luís Roberto Barroso e André Mendonça. Ainda faltam os votos de sete ministros.
Na sessão da última quinta-feira (5), o ministro André Mendonça manifestou-se pela manutenção do modelo atual. Segundo ele, "do que concerne à remoção de conteúdo, entendo que à luz das balizas constitucionalmente estabelecidas, o dispositivo é, em tese, constitucional". Ou seja, para Mendonça, as plataformas só podem ser responsabilizadas juridicamente se houver descumprimento de ordem judicial — posição alinhada aos interesses das big techs, que são contrárias a mudanças que ampliem sua responsabilização.
Seu voto, no entanto, foi em sentido oposto ao dos ministros Toffoli, Fux e Barroso. O julgamento havia sido interrompido em dezembro por pedido de vista de Mendonça e foi retomado na quarta-feira ada (4). Seu voto foi extenso, ocupando duas sessões plenárias.
Relator do Recurso Extraordinário (RE) 1037396, Toffoli propôs uma responsabilização mais ampla, ao considerar que o Artigo 19 garante “imunidade” indevida às plataformas. Ele sugeriu que se adote a lógica do Artigo 21 do Marco Civil, que exige apenas a notificação do usuário para remoção de conteúdos específicos, como materiais de nudez não consentida.
Luiz Fux, relator de outro processo (RE 1057258), também votou pela responsabilização das plataformas, especialmente em casos de crimes contra a honra, como injúria, calúnia e difamação. Segundo seu voto, esses conteúdos deveriam ser retirados do ar logo após notificação, podendo ser republicados apenas com autorização judicial. Fux defendeu ainda remoção automática, sem necessidade de notificação, para conteúdos que envolvam discurso de ódio, pedofilia, racismo, incitação à violência e ataques ao Estado Democrático de Direito.
O presidente da Corte, Luís Roberto Barroso, adotou uma posição intermediária. Ele reconheceu que a regra atual não oferece proteção suficiente a direitos fundamentais e afirmou que, em caso de notificações sobre crimes, como perfis falsos, a retirada do conteúdo deve ser imediata.
Os dois recursos analisados envolvem casos distintos. No RE 1037396, o Facebook tenta reverter decisão do Tribunal de Justiça de São Paulo (TJSP) que o obrigou a excluir um perfil falso. Já o RE 1057258 trata de uma decisão do Tribunal de Justiça de Minas Gerais (TJMG), que impôs ao Google o pagamento de danos morais por manter no ar uma comunidade do extinto Orkut criada por estudantes para atacar uma professora.
❗ Se você tem algum posicionamento a acrescentar nesta matéria ou alguma correção a fazer, entre em contato com [email protected].
✅ Receba as notícias do Brasil 247 e da TV 247 no Telegram do 247 e no canal do 247 no WhatsApp.
Assine o 247, apoie por Pix, inscreva-se na TV 247, no canal Cortes 247 e assista: