O Supremo Tribunal Federal (STF) se aproxima de uma decisão histórica sobre a responsabilização das redes sociais por conteúdos postados por terceiros. Com a maioria dos ministros a favor de que as plataformas de redes sociais sejam responsáveis pela remoção de publicações ilegais, independentemente de uma ordem judicial, a medida tem gerado debates sobre os impactos dessa mudança, especialmente em relação à liberdade de expressão e ao controle das postagens.
LEIA TAMBÉM: Juiz anula julgamento de uma das acusações de estupro contra Harvey Weinstein
Atualmente, o Marco Civil da Internet estipula que as plataformas só podem ser responsabilizadas por conteúdos prejudiciais quando não cumprirem uma ordem judicial que determine a remoção de uma postagem. Com a mudança defendida pelos ministros, as empresas deverão monitorar e retirar do ar conteúdos ofensivos, mesmo sem uma decisão judicial prévia.
O perito internacional em crimes cibernéticos, Wanderson Castilho, destaca que as grandes plataformas estão investindo em inteligência artificial para monitorar e moderar conteúdos de forma mais ágil. “Após a implementação de inteligência artificial, ajustar a moderação de conteúdos em tempo real ficou uma tarefa mais fácil”, afirma. Contudo, ele alerta para o impacto da mudança na quantidade de remoções: “Ainda não sabemos qual será o impacto disso na questão da quantidade de pedidos de remoção, pois não podemos esquecer que as plataformas têm muitas outras tarefas a cumprir para seus usuários”, completou o perito.
Apesar do avanço na responsabilização das redes sociais, o especialista aponta um possível risco de censura. “Tudo aquilo que não tem uma definição clara dá abertura para abusos. A escolha das remoções será diretamente influenciada por questões financeiras e não necessariamente pela liberdade de expressão. Em caso de dúvida, as plataformas irão optar pela remoção para não se responsabilizarem por conteúdos de terceiros”, avaliou.
Para a advogada Ana Luiza Kadi, do escritório Fabio Kadi Advogados, o STF está criando um cenário desafiador ao alterar a lógica de responsabilização prevista pelo Marco Civil da Internet. “As plataformas enfrentarão o desafio de equilibrar a liberdade de expressão com os direitos individuais. Elas terão que decidir se o conteúdo é ofensivo ou não, o que pode gerar riscos”, afirmou Kadi, concordando com o ponto de vista de Wanderson quanto á censura.
A advogada também questiona a competência das plataformas para julgar se postagens são ilícitas. “Até que ponto leigos da área do direito devem julgar se postagens são ilícitas? Claro que em alguns casos o ilícito pode ser evidente, mas a linha entre o que é legal e o que é ilegal pode ser muito tênue”, ponderou.
O futuro da moderação de conteúdos
O julgamento ainda está em andamento, e a decisão final do STF poderá ter impactos profundos na forma como as redes sociais operam no Brasil. Especialistas afirmam que a nova realidade exigirá que as plataformas se tornem ainda mais diligentes na moderação de conteúdos, mas também alertam para os riscos de uma possível sobrecarga no sistema, além de um possível aumento de remoções indevidas.
A pressão sobre as plataformas para moderar o conteúdo sem comprometer a liberdade de expressão será um tema central na aplicação prática dessa decisão. O STF terá de balancear a necessidade de proteger os direitos dos usuários com a complexidade de gerenciar uma plataforma global e dinâmica, em que a linha entre liberdade de expressão e discurso de ódio nem sempre é clara.