STF vai retomar julgamento sobre responsabilidade das redes sociais na próxima semana


O Supremo Tribunal Federal (STF) vai retomar em 4 de junho o julgamento sobre a responsabilização das plataformas digitais por conteúdos ilícitos publicados pelos usuários. O presidente da Corte, Luís Roberto Barroso, deve marcar oficialmente a data ainda nesta quinta-feira, 29, junto com o calendário de todo o mês de junho, de acordo com a assessoria do Tribunal. O próximo voto será do ministro André Mendonça, que pediu vista em dezembro do ano passado e devolveu o processo no início desta semana.

As ações discutem o artigo 19 do Marco Civil da Internet (MCI), que isenta as plataformas de responsabilização por conteúdos publicados por terceiros. No regime atual, as redes sociais apenas respondem por danos causados pelas postagens caso descumpram uma ordem judicial de remoção. Há duas exceções: violação aos direitos autorais e divulgação de fotos íntimas sem consentimento.

Já foram proferidos três votos. Os relatores, Dias Toffoli e Luiz Fux, votaram para derrubar o artigo 19. Eles defenderam que a regra geral da responsabilização das redes sociais por conteúdos de terceiros deve ser a notificação e retirada – o chamado notice and take down, que já era vigente antes da edição do MCI, em 2014. De acordo com essa regra, as plataformas digitais podem ser responsabilizadas caso não removam as postagens ilícitas logo após notificação dos usuários.

Barroso propôs uma linha divergente, mais favorável às big techs. Ele manteve o artigo 19, mas ampliou as exceções à regra. No regime de responsabilidade proposto pelo ministro, a regra geral para crimes (exceto injúria, calúnia e difamação) é a retirada logo após a notificação do usuário. No caso de crimes contra a honra, é necessária decisão judicial para preservar a liberdade de expressão. Em conteúdos impulsionados ou anúncios, quando já houve aval das plataformas e a postagem foi monetizada, a responsabilidade é imediata, independentemente de notificação.

Na última segunda-feira, 26, a Advocacia-Geral da União (AGU) pediu ao Supremo uma medida cautelar para a Corte reconhecer a necessidade de “imediata responsabilização dos provedores de aplicação de internet”, antes mesmo da conclusão do julgamento. Para embasar o pedido, a União apresentou estudo que identificou 1170 anúncios fraudulentos com uso de IA e apropriação indevida de imagens de autoridades.

Em reação à petição da AGU, a Meta disse ao Supremo que a concessão de uma medida cautelar, como pede a AGU, “esvaziaria o debate colegiado” e “geraria efeitos práticos de uma tese ainda não consolidada”. Também afirmou que o quadro descrito pela União “não corresponde à realidade dos fatos e encontra-se sensivelmente distante dos números e ações de integridade já adotadas em escala”.



Por: Estadão Conteúdo

Estadão

Recent Posts

Irã nega plano de obter arma nuclear, mas diz ter direito de enriquecer urânio para fins civis

O porta-voz do ministério das Relações Exteriores do Irã, Esmaeil Baghaei, afirmou que o país…

3 minutos ago

Democrata favorito à prefeitura de NY recusa rótulo de ‘comunista’ dado por Trump

O provável candidato democrata à prefeitura de Nova York, Zohran Mamdani, afirmou neste domingo, 29,…

11 minutos ago

Senador republicano desiste de reeleição após se opor a ‘grande e bonito’ projeto de Trump

O senador norte-americano Thom Tillis, do Partido Republicano, anunciou neste domingo, 29, que não buscará…

19 minutos ago

Volta Redonda vence Operário-PR e respira na luta contra a queda na Série B

O Volta Redonda venceu o Operário-PR por 1 a 0 na tarde deste domingo, em…

20 minutos ago

Manifestação de Bolsonaro reuniu 12 mil pessoas na Avenida Paulista, diz monitor ligado à USP

A manifestação "Justiça Já", organizada neste domingo, 29, na Avenida Paulista, pelo ex-presidente da República…

42 minutos ago

Macron cobra de presidente do Irã volta às negociações nucleares e cooperação com a AIEA

O presidente da França, Emmanuel Macron, cobrou do presidente do Irã, Masoud Pezeshkian, o "retorno…

50 minutos ago

This website uses cookies.