O Supremo Tribunal Federal (STF) formou maioria em 11 de junho de 2025 para responsabilizar civilmente as plataformas digitais pelo conteúdo publicado por seus usuários, abrindo um novo capítulo no debate sobre a regulação da internet no Brasil. Até o dia seguinte, sete dos onze ministros já haviam votado pela responsabilização das empresas, em julgamento que discute a constitucionalidade do artigo 19 do Marco Civil da Internet (Lei nº 12.965/2014).
O que diz o Marco Civil da Internet
O Marco Civil da Internet está em vigor no Brasil desde 2014 e estabelece diretrizes para o uso da internet no país. O ponto central da discussão é o artigo 19, que determina que plataformas só podem ser responsabilizadas por conteúdos de terceiros caso não cumpram ordem judicial específica para remoção.
Dois recursos — um do Facebook (Meta) e outro do Google — questionaram decisões judiciais que os responsabilizaram por conteúdos ofensivos mantidos em suas plataformas. Ambos os casos alegavam que o artigo 19 seria inconstitucional por exigir ordem judicial prévia para remoção de conteúdo.
Até o momento, ministros como Dias Toffoli, Luiz Fux, Flávio Dino, Cristiano Zanin, Gilmar Mendes, Luís Roberto Barroso e Alexandre de Moraes votaram pela inconstitucionalidade total ou parcial do artigo. O julgamento será retomado no dia 25 de junho, com os votos dos ministros Edson Fachin, Cármen Lúcia e Nunes Marques.
Como os Estados Unidos tratam a responsabilidade das plataformas
Nos EUA, a Seção 230 da Lei de Decência das Comunicações de 1996 funciona de maneira semelhante ao artigo 19 do Marco Civil. O texto estabelece que provedores de serviços online não são considerados responsáveis pelo conteúdo postado por terceiros, protegendo as plataformas contra ações judiciais baseadas em publicações de usuários.
Esse princípio foi reforçado no caso Zeran vs. AOL (1997), em que a Justiça entendeu que a AOL não era responsável por conteúdo ofensivo publicado por usuários, mesmo após notificações. A jurisprudência garante imunidade às plataformas por conteúdos de terceiros e permite a moderação sem configurar censura.
Apesar disso, projetos de lei nos EUA têm tentado restringir a amplitude da Seção 230, especialmente em casos envolvendo desinformação, discurso de ódio e proteção de menores. No entanto, essas propostas frequentemente esbarram na Primeira Emenda da Constituição, que assegura a liberdade de expressão.
O modelo europeu: DSA impõe regras mais rígidas às big techs
Na União Europeia, a abordagem é mais rigorosa. O Regulamento dos Serviços Digitais (DSA – Digital Services Act), em vigor desde novembro de 2022, impõe uma série de obrigações para grandes plataformas com mais de 45 milhões de usuários, como Facebook, Google, TikTok, YouTube e Instagram.
Entre os principais pontos da DSA estão:
- Remoção rápida de conteúdo ilegal;
- Proteção de menores e proibição de publicidade direcionada a crianças;
- Combate à desinformação e interferência eleitoral;
- Transparência sobre algoritmos e moderação de conteúdo;
- Obrigação de agir após notificação de conteúdo ilegal, sem necessidade de ordem judicial.
O artigo 6 do DSA estabelece que as plataformas só serão responsabilizadas se tiverem conhecimento do conteúdo ilegal e não tomarem providência imediata. Já o artigo 16 define o procedimento para usuários denunciarem conteúdos, exigindo uma explicação detalhada e precisa.
Reino Unido também avança com a Online Safety Bill
O Reino Unido adotou uma legislação própria, a Online Safety Bill, em outubro de 2023. A lei exige que plataformas avaliem riscos de conteúdo ilegal, nomeiem representantes legais e forneçam ferramentas simples de denúncia. As penalidades para descumprimento podem chegar a £18 milhões (cerca de R$ 135 milhões) ou 10% do faturamento global da empresa.
Conflito global: Big techs x governos
O embate entre big techs e governos não é exclusividade do Brasil. Ao redor do mundo, empresas como Google, Meta, Amazon, Apple e TikTok enfrentam regras cada vez mais rígidas sobre moderação de conteúdo, privacidade, concorrência e transparência.
Nos EUA, apesar da ausência de uma lei equivalente ao DSA europeu, diversos estados aprovaram legislações específicas como os “Kids Codes”, que reforçam a proteção de dados de crianças. Já a Lei COPPA (2000) exige consentimento dos pais para coleta de dados de menores de 13 anos.
Além disso, o país também vive uma onda de processos antitruste. Em abril de 2025, a Comissão Federal de Comércio (FTC) iniciou um processo contra a Meta, alegando que a compra do Instagram (2012) e do WhatsApp (2014) foi uma estratégia para eliminar concorrentes e formar um monopólio digital.
Segundo relatório do banco JP Morgan, gigantes como Google, Apple, Microsoft e Meta concentram uma fatia significativa do mercado, moldando padrões e influenciando o comportamento do consumidor em escala global.
Leia também: STF forma maioria para responsabilizar big techs por publicações de usuários
O post Como EUA e Europa lidam com a responsabilidade das big techs apareceu primeiro em Jornal Opção.