Ergon Cugler comenta decisão do Supremo de ajustar o artigo 19 da legislação que trata da responsabilização das plataformas nas redes sociais

Marco Civil da Internet: “STF atuou em uma lacuna deixada pelo Congresso”, diz pesquisador 
Arquivo Pessoal

O Supremo Tribunal Federal definiu, na última quinta-feira (26), como parcialmente inconstitucional o artigo 19 do Marco Civil da Internet. O trecho do dispositivo, em vigor desde 2014, trata sobre a responsabilidade das redes sociais em relação aos conteúdos publicados por usuários.

Por 8 votos a 3, os ministros decidiram que a regra atual não protege adequadamente os direitos fundamentais e a democracia e ampliou as obrigações das plataformas digitais no Brasil. 

Com a mudança, as plataformas poderão ser responsabilizadas na esfera civil em caso de não agirem após uma notificação extrajudicial feita por um usuário para remoção de determinado conteúdo ofensivo. Antes da decisão do Supremo, as empresas eram obrigadas a excluir a publicação somente se houvesse uma ordem judicial específica. 

Especialista que atua no movimento pela democratização da comunicação, o pesquisador Ergon Cugler, do Laboratório de Estudos sobre Desordem Informacional e Políticas Públicas, DesinfoPop, da FGV, trouxe um panorama da legislação e as perspectivas a partir das mudanças no marco regulatório. Confira a entrevista: 

Antes do novo entendimento a partir do julgamento, o que o artigo 19 do Marco Civil da Internet diz sobre a retirada de conteúdos pelas plataformas? 

O artigo 19 do Marco Civil da Internet nasce lá em 2014 com uma preocupação de que não ia ser razoável as plataformas ou os provedores de aplicação de internet derrubarem conteúdos a torto e a direito, ou seja, ele nasce com uma preocupação de preservar a liberdade de expressão. E aí tem um ponto muito sensível, até para destrinchar um pouco a questão do próprio artigo 19, quando ele fala de provedores de aplicações de internet, a gente não tá falando só de rede social, só de plataformas, são também provedores de aplicação de internet, como o WordPress, por exemplo, o próprio “.br”, por si só, também é um provedor. Então, o artigo 19 vinha no sentido de proteger o conjunto da internet como um todo. E aí, tem um pulo do gato, que foi malandragem das plataformas, por quê? O artigo diz assim: ‘o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerados por terceiros, se após ordem judicial específica não tomar as providências’. Em nenhum momento, o artigo diz que a plataforma não pode derrubar conteúdo ilícito. O que o artigo 19 diz é que ela não pode ser responsabilizada civilmente. Então, essa questão, ela é muito importante, porque isso daqui foi o palco do próprio debate do STF. 

Como é o funcionamento desse mecanismo na prática? Quais são os casos?

As plataformas hoje, falando de maneira prática, elas já derrubam conteúdo. Se você tem um conteúdo de pedofilia, no geral, a plataforma derruba. Se você tem um conteúdo mais violento também. Então as plataformas, elas foram dando a desculpa de que não iriam derrubar determinado conteúdo aqui ou ali, com base em um artigo que na verdade não proibia elas de derrubar conteúdo, na verdade prevenia elas de serem responsáveis civilmente pelos danos. E aí o que o STF debateu? Foi curioso porque o STF começou um debate se iria considerar esse artigo 19 constitucional ou inconstitucional. E na verdade o debate do STF, ao longo dos votos que foram proferidos pelos ministros, foi indo para uma linha de não dizer que o artigo é necessariamente inconstitucional, mas o de dar uma reinterpretação para o artigo 19. Além delas não serem impedidas de derrubar conteúdo, agora, além disso, elas também são responsáveis visivelmente por um rol de crimes praticados no ambiente digital. E aí eu acho que, nesse sentido, a postura do STF foi acertada. Porque não está dizendo que qualquer conteúdo, que qualquer pessoa denuncie vai ter que cair ou então a plataforma vai ser responsável lá na frente. Não, não é isso. Em um rol de conteúdos, a plataforma tem que atuar, inclusive de forma preventiva, que são os atos antidemocráticos, o terrorismo, indução suicídio, automutilação, discriminação racial, crimes contra mulher e violência de gênero, pornografia infantil e tráfico de pessoas. Então, nesse rol de itens, as plataformas passam a ser responsabilizadas a partir da não ação. Basta uma notificação extrajudicial, não precisa nem ter uma decisão judicial, para que elas sejam obrigadas de alguma forma a retirar o conteúdo, senão elas vão pagar uma multa, vão ter que responder de alguma forma. E é importante destacar que a discussão do STF excluiu aplicativos de mensageria, como é o caso do WhatsApp, do Telegram, por exemplo, e os provedores de email, que não podem ser responsabilizados por ameaças que as pessoas façam por meio de email ou videoconferência.  Mas o fato é que em rede social, plataforma de rede social, o entendimento agora é bem objetivo. Publicou conteúdo que pratica algum desses crimes, teve notificação extrajudicial e decidiu manter o conteúdo, então, além de você ter autoridade ali para retirar, você se torna responsável civilmente por aquele conteúdo. 

E qual foi o contexto para que o STF tivesse interesse em regulamentar o entendimento do artigo? Sabemos que a regulamentação é um tema que está na sociedade, inclusive agora, com a Inteligência Artificial. Mas, qual foi o estopim com relação às plataformas para que o debate avançasse na corte?

Tem algumas datas que são muito marcadas para a gente que está lá no movimento social porque a gente estava no dia da votação do PL 2630, que é o tal do PL da Fake News, e percebemos que foram alguns acontecimentos que suscitaram esses debates. Primeiro, lá em abril de 2023, a gente teve um boom de ameaças de ataque em ambiente escolar. Então tinham várias ameaças surgindo, que iam massacrar escolas, isso foi em abril de 23. E eu posso até dar um dia aproximado, que é o dia 20 de abril, geralmente, o dia do ano que a gente tem mais ameaças porque é o aniversário do Hitler e o aniversário do massacre de Columbine. Eles aproveitam, nessas proximidades, para tentar ampliar a radicalização, né, tentar cooptar jovens e tudo mais. E aí teve a posição do Flávio Dino, ainda enquanto ministro da Justiça e Segurança Pública, querendo apresentar um projeto do Executivo e o Congresso Nacional falando: ‘opa, tem uma aqui um projeto de lei que já está em discussão há algum tempo, não precisamos de um projeto do Executivo, vamos discutir o PL 2630, né?’ A princípio, o Arthur Lira topou bancar a disputa desse projeto, relatado pelo deputado Orlando Silva, aqui de São Paulo. Foi aprovada a urgência do projeto, mas no dia da votação, que seria 2 de maio de 2023, menos de um mês depois das ameaças que estavam acontecendo no ambiente escolar, a gente não teve voto suficiente na avaliação do próprio relator, do Orlando Silva, enfim, da bancada do governo, para botar para votação. E aí o projeto ficou engavetado, o Lira mandou para um grupo de trabalho discutir, retirou da relatoria do Orlando Silva e aí ficou sem qualquer tipo de respaldo do Congresso Nacional um debate nesse sentido. E foi uma pena porque o debate das redes sociais polarizou de um jeito, assim, completamente irracional. O lobby das plataformas foi muito pesado, especialmente do Google. O Youtube mandou carta para os influencers falando sobre o PL, houve um direcionamento indevido nas buscas sobre o assunto, até o Spotify tocou faixas de propaganda contra, violando as regras de uso, de ter publicidade política. E o resultado foi o Congresso Nacional se acovardando de debater sobre o 2630, e esse assunto ficando à mercê de uma polarização que imbeciliza, infelizmente, a discussão, porque quem era contra, não sabia muito bem o porque era contra, mas falava que era contra o ‘PL da censura’, o ‘PL da mordaça’, né? Então, o que aconteceu foi o STF reagindo a essa omissão. O que também traz preocupação para os movimentos sociais.

Preocupação em que sentido?

Falando enquanto movimento social, a leitura que se tem hoje é que é muito negativo o STF ter tido que debater isso por omissão do Congresso. Esse debate deveria ter sido feito no Congresso. Não à toa, a forma como foi no STF abriu várias zonas cinzentas, tem o rol ali de provedores de aplicações de internet que não foram explicitados, mas tem um outro ponto que também é uma zona cinzenta, que é a da atuação excessiva. Então, por exemplo, hoje, a plataforma, tal como ela foi oportunista no passado, dizendo o artigo de 19 proibia ela de derrubar conteúdo, quando o artigo 19 não proibia, só isentava responsabilização civil, ela agora pode derrubar conteúdo a torto e a direito, dizendo que ela está prevenindo. Então, a plataforma agora de alguma forma, se não tiver algum critério de transparência para as medidas dela, se não tiver um órgão que fiscalize a atuação, por exemplo, ela pode, aí sim, aplicar uma responsabilização excessiva e remover conteúdo. Dizendo ‘ah, mas se eu mantiver isso, eu corro o risco de ser processada civilmente. Então, é uma das consequências’. Então, olha só como esse tipo de discussão, caberia muito ao Congresso pensar: ‘beleza, então qual vai ser o órgão regulamentador que vai olhar para as plataformas para ver se elas estão atuando com devido dever de cuidado, que é o termo inclusive que tem sido usado, né? Para prevenção dessas práticas no ambiente digital. Se elas estão, de fato, prevenindo ou se elas estão só derrubando o post. Então, a lacuna de ter sido discutido no STF é consequência de um Congresso Nacional que foi omisso na coragem de debater a necessidade civilizatória de uma internet que seja dentro do das quatro linhas da constituição, que é o que eles adoram falar, né?

E ainda tem a reação das plataformas, né…

O que a gente tem hoje é a mesma dinâmica que a gente viu em outros países, tanto na União Europeia, especialmente na Alemanha, mas também na Austrália. Hoje, o Google está falando que se o STF expandir os critérios de responsabilização, eles podem até querer sair do país. Vale lembrar, que na Austrália, quando eles passaram um projeto que pautava a remuneração jornalística de conteúdos circulados nas plataformas, também tiveram plataformas que falaram que iam proibir conteúdos jornalísticos, porque senão iam ter que ficar pagando. Proibiram por um tempo, mas depois voltaram, porque viram que a receita delas, inclusive, caiu, porque elas passaram a ter menos audiência. Então, de fato, assim, se uma padaria de esquina precisa cumprir regras de vigilância sanitária para não dar alimento estragado para as crianças, por exemplo, porque uma plataforma de rede social não deve ser responsabilizada para não dar conteúdo estragado para as mesmas crianças, né? Falando de criança, porque é uma pauta moral que infelizmente acaba sendo a única que dá para dialogar com quem acha que seria o suposto PL da censura. Então, eu acho que a discussão vai passar agora muito por ‘ok, temos o entendimento de responsabilização civil das plataformas, a partir da omissão de solicitações extrajudiciais, mas como que a gente garante uma transparência? Quem é o órgão que vai fazer um acompanhamento disso? Quem vai regular se as plataformas estão de fato cumprindo isso, sem excederem na sua decisão de retirada de conteúdo, por exemplo?

Você citou o PL 2630, disse que o STF veio no sentido de preencher essa lacuna. Mas o PL abordava outras propostas de avanço, além da regulamentação desse ponto? Os movimentos entendem que há outras questões ainda a serem resolvidas?

A gente costuma dizer dentro do movimento social que chamar de ‘PL das Fake News’, inclusive, nem faz tanto sentido. Sabe por quê? Se você dá um control F, um buscar lá no PDF, na versão que o Orlando colocou para votação no 2 de maio, são 110 páginas e não aparece uma vez a palavra ‘fake news’ e a palavra desinformação aparece apenas duas vezes. Então, o PL 2630, em essência, não tratava de regular necessariamente o que uma pessoa vai falar, se aquilo é fake news, se aquilo não é fake news. Ele não criava uma tipologia do que é a mentira, por exemplo. E essa foi a mentira que a extrema direita, inclusive, compartilhou para tentar desmoralizar, chamando de Ministério da Verdade. Por outro lado, o 2630 falava de três coisas: liberdade de expressão, corresponsabilização e transparência das plataformas. Primeiro, a liberdade de expressão vai até a vírgula em que um crime é cometido. Então, quando a gente tem esses ataques em ambiente escolar, vale lembrar que também em abril de 23, o Telegram se negou a entregar dados de usuários de grupos neonazistas que estavam combinando ataques em ambiente escolar com o argumento de que se feriria o direito à privacidade e à liberdade de expressão desses usuários. Segundo, corresponsabilização. A partir do momento em que uma plataforma ganha dinheiro, tem um impulsionador, tráfico pago, por exemplo, que a gente bota para uma mensagem chegar mais longe. A partir do momento que um conteúdo é impulsionado, ela se torna sócia, corresponsável pelos potenciais danos daquele conteúdo. Se trata dessa decisão da plataforma, se ela ganha dinheiro, aceita divulgar ou se ela não ganha dinheiro e rejeita aquele anúncio, ela passaria a ser mais criteriosa. E o terceiro ponto, que é a transparência das plataformas, seria dela minimamente e aí o PL 2630 era até muito gentil. Não era para abrir o algoritmo, dar o segredo industrial. Tinha uma previsão lá, por exemplo, de colocar relatórios periódicos, semestrais até, para que a plataforma pudesse fazer uma espécie de prestação de contas de como ela estava atuando nesse preventivo, nesse dever de cuidado. Então, de forma muito resumida, o 2630 tratava disso e colocava na discussão a necessidade de um agente regulador, que até então, o mais indicado era o comitê gestor da internet no Brasil, o CGI. A ideia é que o CGI pudesse ser o cara que ia ler esse relatório semestral e falar: ‘olha, tá cumprindo ou não tá’. Só isso que o CGI ia fazer. Não ia decidir o que é verdade, o que é mentira, o que é fake news, o que não é. Então, é isso, o 2630 dava uma maior robustez, um arcabouço jurídico para que fosse possível ter uma melhor regulação das plataformas. A postura do STF é algo um pouco mais paliativo, na medida em que tira das plataformas o argumento de que elas não podem agir em cima de crime praticado no ambiente digital.

E como você avalia o interesse das plataformas se posicionando contrárias à regulamentação?

O modelo de negócio das plataformas é baseado em manter os usuário o máximo de tempo possível dentro delas. Porque se eu fico cinco minutos, eu vou ver uma, duas publicidades, eu vou dar uma renda muito pequenininha, mas se eu fico nove horas por dia na internet, que é a média de consumo diária do brasileiro, eu vou gerar muita receita para as plataformas. Então, a plataforma é baseada no modelo de negócio em vício de tela, em retenção de usuário para ficar nela. Dito isso, quanto mais tempo a gente fica na plataforma, mas a gente também tá entregando dados para ela poder fazer um perfilamento nosso. Ela consegue saber quais são os nossos medos, nossas angústias, os nossos pontos fracos, as nossas vontades. E o Brasil é um grande mercado consumidor, não só das plataformas, mas da internet como um todo. Então, elas têm um interesse comercial muito grande no Brasil. E no fim das contas, entre você colocar um bot para decidir se vai moderar ou não o conteúdo e você deixar uma equipe inteira de brasileiros para fazerem essa moderação, você tem um custo muito grande de diferença. Então, você tem um aspecto comercial aí no meio. Vale lembrar do vazamento do Facebook Papers, que foi um vazamento de conversas da alta cúpula do Facebook, quando uma ex-funcionária do Facebook vazou eles dizendo: ‘olha, temos aqui relatórios da quantidade de posts com desinformação sobre vacinas. A gente derruba ou a gente mantém esses posts?’ E a alta cúpula do Facebook disse para manter por conta da receita que estava entrando. Então, eles tomam decisão baseada, não no bem público, não no que é o melhor para a sociedade, não no que é mais valoroso para a democracia, mas é uma decisão comercial no fim das contas, né? Então, atender uma lei local, se comprometer em combater crimes no ambiente digital, necessariamente, reduz a receita deles. Essa é a guerra de braço que está sendo feita, as plataformas sabem que vão perder dinheiro e vão ter que colocar mais pessoas para fazer a moderação. Então, no fim das contas, uma briga, uma guerra comercial, é uma disputa que é do dinheiro, do quanto elas faturam no nosso país. E aí, é muito curioso porque no norte global, especialmente na União Europeia, em especial na Alemanha, em países ditos desenvolvidos, no Canadá e etc, a regulação, ela já existe de alguma forma. Mas quando é aqui no Sul Global, especialmente no caso do Brasil, a gente viu o poder que o lobby das plataformas tem para barrar qualquer iniciativa de regulação.