Nas últimas semanas, um ataque a uma escola infantil em Blumenau (SC), que resultou na morte de quatro crianças, chocou o país. O crime hediondo ocorreu poucos dias após um adolescente matar uma professora a facadas em uma escola da zona sul de São Paulo (SP). Os dois casos criaram um verdadeiro clima de pânico nas redes sociais, com alertas de supostos novos ataques viralizando rapidamente. A onda de violência nas escolas, e a possível contribuição das redes para esses crimes, trouxe ao debate público um assunto que tem chamado a atenção do atual governo: a regulação das redes sociais.
Na última segunda-feira (10), o ministro Flávio Dino (PSB) e outras autoridades do governo Lula se reuniram com porta-vozes das principais plataformas de redes sociais para discutir possíveis soluções para o cenário atual – que envolve desde as ondas de violência em escolas até o ataque golpista de 8 de janeiro. Entre os tópicos apresentados pelo governo, esteve o questionamento de por que uma conta no Twitter, que usava como foto de perfil imagens de assassinos responsáveis por massacres em escolas, ainda não havia sido derrubada pela plataforma.
Antes disso, uma audiência pública realizada pelo Supremo Tribunal Federal (STF) para debater o Marco Civil da Internet e o papel das plataformas na fiscalização de conteúdos criminosos ou que fizesse apologia à violência aconteceu nos dias 28 e 29 de março. Ainda em 2022, durante o ano de eleição, o órgão determinou medidas de combate às fake news no aplicativo de mensagens instantâneas Telegram.
A proposta de uma maior moderação dos conteúdos circulados nas redes não é exclusividade do governo atual ou do Partido dos Trabalhadores (PT), mas tem recebido maior destaque desde a eleição de Luiz Inácio Lula da Silva (PT). Ainda em campanha eleitoral, Lula enfatizou a necessidade de reforçar o combate às fake news e aos conteúdos que apresentassem riscos à sociedade e à democracia – discurso que ganhou ainda mais força após o ataque bolsonarista em Brasília.
Mas o que seria uma regulação das redes sociais? Seriam as redes sociais uma “terra de ninguém”? Neste texto, o GUIA DO ESTUDANTE mostra um panorama geral envolvendo a atual situação.
O que seria uma regulação das redes sociais
De acordo com as políticas de uso de big techs como Meta e Twitter, plataformas de redes sociais não são responsáveis judicialmente pelos conteúdos criados e vinculados por seus usuários. Isto é, calçados no direito da liberdade de expressão, essas empresas são ausentes da responsabilidade de responder pelos conteúdos produzidos por seus usuários – no sentido de que são meras ferramentas para o discurso, e não o discurso em si.
A atual proposta do governo brasileiro, ainda não redigida oficialmente, é aliar uma maior moderação dos conteúdos com penalizações mais rígidas às plataformas. A atual legislação do Marco Civil da Internet afirma que as redes sociais só são penalizadas pela veiculação de conteúdos criminosos quando não respondem a uma ordem judicial para a exclusão do conteúdo. O novo texto deve sugerir que as redes sejam responsáveis pelos conteúdos antes mesmo de receber ordens judiciais para a exclusão.
Em entrevista à CNN, o ministro do STF Luís Roberto Barroso, um dos principais nomes envolvidos na redação da proposta, afirma que a liberdade de opinião e crítica é “totalmente livre, mas se estiver incitando alguém a uma ação violenta, isso já extrapolou o patamar da opinião”. Ele adianta que a proposta irá prever uma moderação em três níveis:
- O primeiro seria no dever das plataformas de retirar, imediato e automaticamente, conteúdos em que haja o claro cometimento de um crime (como terrorismo, ameaça à democracia, pedofilia), antes mesmo que o algoritmo circulasse ou recomendasse aquele conteúdo;
- O segundo ponto seria na exclusão de um conteúdo em que haja a violação do direito de outro indivíduo, como o compartilhamento de fotos íntimas, desrespeito de direito autoral ou ameaças. As plataformas seriam responsáveis por retirar o conteúdo após serem informadas pela vítima;
- Por fim, o terceiro nível seria o mais delicado, pois compreenderia tudo que está no meio termo entre os dois primeiros. Essa “área cinzenta” seria onde ocorre a maior parte da proliferação de conteúdos que, de imediato, podem não parecer criminosos ou ofensivos.
Para o ministro, a moderação serviria como um “arcabouço jurídico mínimo” que ditasse como as plataformas devem funcionar no Brasil; algo acima de suas políticas de uso e padrões de comunidade internas. O objetivo não é limitar ou cercear o usuário, mas sim, promover um ambiente em que não haja espaço para conteúdos criminosos, ilícitos ou ofensivos.
Para garantir esse funcionamento, o ministro do STF pensa na possibilidade de um órgão externo independente, composto por representantes do governo, das plataformas, da academia e da sociedade civil para constituir o monitoramento.
Uma parceria com as big techs, no entanto, tem se mostrado difícil. As empresas clamam que as plataformas já possuem mecanismos internos que impedem a publicação de conteúdos criminosos ou que façam apologia à violência – muitos feitos por Inteligência Artificial (IA). Mas, na prática, a ascensão cada vez maior de postagens que promovem a xenofobia, o racismo, a lgbtfobia, a misoginia, a intolerância religiosa, o nazismo, entre outros, mostra justamente o contrário.
Para as plataformas, uma política de maior controle dos conteúdos poderia significar censura.
Na reunião de segunda-feira, a representante do Twitter afirmou que a utilização das imagens de assassinos de massacres em escolas como foto de perfil não viola as diretrizes de uso da plataforma. Quando questionada sobre o assunto pelo jornal O Estado de S. Paulo, a rede social respondeu o contato da publicação com um emoji de fezes.
A resposta da empresa tem se tornado padrão no contato com a imprensa desde a compra da rede pelo empresário Elon Musk. Vista por especialistas como um verdadeiro retrocesso na temática, sua gestão tem sido marcada por crises de gerenciamento e demissões em massa – incluindo boa parte da equipe de controle de segurança da plataforma.
Ainda não há um texto finalizado para a regulação das redes no Brasil. Por mais que haja uma convergência entre a Câmara dos Deputados e o STF, ainda há dúvidas se o cenário levará à aprovação de novas leis, ou à reformulação do Marco Civil da Internet – que, feito em 2014, é visto por alguns especialistas como ultrapassado.
Há ainda a PL das Fake News (Projeto de Lei n° 2630), que atua na mesma seara e segue sendo liderada pelo deputado Orlando Silva (PCdoB). A PL, inclusive, sugere que além da moderação dos conteúdos nas redes, exista uma remuneração a empresas de jornalismo pelo conteúdo que circula nas redes.
Como anda a questão em outros países
A proposta brasileira de regulação das redes sociais está sendo baseada, principalmente, no récem aprovado Digital Services Act (DSA), um novo pacote legislativo sobre os serviços digitais na União Europeia. O objetivo principal da DSA é promover um espaço digital seguro na Europa – o que, claro, inclui as redes sociais.
O pacote cobra das plataformas uma maior transparência em relação ao funcionamento de seus algoritmos, das publicidades veiculadas internamente, moderação dos conteúdos e a responsabilização pela circulação de publicações ilícitas.
Nos Estados Unidos, um caso vem sendo apontado como um dos principais exemplos deste cenário incerto. É o processo “Gonzalez vs. Google”, atualmente em julgamento na Suprema Corte americana. Nohemi Gonzalez foi uma jovem estadunidense que estudava na França e foi morta aos 23 anos durante o atentado de Paris, feito pelo Estado Islâmico, em 2015.
Sua família clama a responsabilização do YouTube (que faz parte do Google) por permitir que o algoritmo da plataforma tenha recomendado vídeos de alistamento terrorista para seus usuários.
Segundo a defesa da família, o YouTube agiu como uma plataforma de recrutamento do Estado Islâmico ao permitir que seu algoritmo circulasse e recomendasse vídeos com esse intuito – e, portanto, tem culpa no assassinato da jovem. A defesa do Google afirma que não é possível fazer essa ligação entre os dois eventos.
Nos Estados Unidos, as big techs ficam “protegidas” pela Seção 230, um dos principais dispositivos americanos que regula a internet e faz parte da Communications Decency Act. Segundo ela, empresas como Google e Meta não podem ser responsabilizadas ou punidas por conteúdos publicados por terceiros em suas plataformas porque elas não atuam como editores ou porta-vozes destes conteúdos.
A lei, no entanto, foi cunhada em 1996 – época em que se era quase impossível imaginar o cenário atual das redes. Caso alterada, seria uma verdadeira revolução para as redes no território estadunidense.
Prepare-se para o Enem sem sair de casa. Assine o Curso PASSEI! do GUIA DO ESTUDANTE e tenha acesso a todas as provas do Enem para fazer online e mais de 180 videoaulas com professores do Poliedro, recordista de aprovação nas universidades mais concorridas do país.