Home > Imprensa > Notícias
14 de setembro de 2024
Ministro Gilmar Mendes faz palestra de encerramento do Seminário "Responsabilidade Civil em Perspectiva: Desafios das Novas Tecnologias", na sede da PGE-RJ
Facebook Twitter
Paulo Vitor/PGE-RJ
Ministro Gilmar Mendes faz palestra de encerramento do Seminário "Responsabilidade Civil em Perspectiva: Desafios das Novas Tecnologias", na sede da PGE-RJ

O Ministro do Supremo Tribunal Federal (STF), Gilmar Mendes, foi o convidado de honra da Procuradoria Geral do Estado do Rio de Janeiro (PGE-RJ) para a palestra de encerramento do Seminário "Responsabilidade Civil em Perspectiva: Desafios das Novas Tecnologias". Em sua fala, o Ministro discorreu sobre a questões relacionadas aos "Paradigmas de Regulação e Consequente Responsabilização no Âmbito da Liberdade de Expressão - Redes Sociais e Democracia".

"Nos últimos anos, como todos sabemos, o Brasil tem sido palco de intenso debate sobre a regulação de redes sociais. Especialmente no que tange à liberdade de expressão e à proteção da democracia. As discussões ganharam nova urgência e complexidade após os alarmantes eventos de 8 de janeiro de 2023. Os ataques às instituições em Brasília foram precedidos por uma intensa mobilização online de grupos extremistas. Esses acontecimentos expuseram de forma dramática as fragilidades do atual Marco Regulatório Brasileiro para lidar com os desafios impostos pela era digital. De um lado, os defensores da liberdade de expressão irrestrita argumentam que qualquer forma de regulação pode abrir caminho para a censura. De outro, crescem as vozes que clamam por maior responsabilização das plataformas digitais na moderação de conteúdos potencialmente danosos à ordem democrática", pontuou o Ministro.

O Ministro destacou que o debate no Brasil não está isolado do contexto internacional.

"Diversas democracias ao redor do mundo têm buscado implementar novas abordagens regulatórias para enfrentar os desafios impostos pela disseminação de desinformação e discursos de ódio e conteúdos antidemocráticos nas redes sociais. Exemplos notáveis incluem a Lei Alemã de 2017, o Digital Services Acts (DSA), aprovada pela União Europeia, de 2022 e as discussões agora em torno do Online Safety Bill, do Reino Unido. A referida Lei Europeia, começou a ser aplicada em 2024, algo muito recente. Nesse cenário de crescente complexidade, emerge no Brasil, um consenso sobre a necessidade de uma política regulatória democrática que aprimore a responsabilidade dos intermediários na moderação de conteúdos online danosos. Alguns movimentos já fazem sentir esse avanço, como por exemplo as resoluções do Tribunal Superior Eleitoral para as eleições de 2024, que representam um esforço significativo para adaptar as regras eleitorais ao contexto digital e combater a desinformação. Antes, discutimos abusos na propaganda eleitoral e apontávamos que a pessoa perdesse 15 segundos, um minuto do candidato que abusava daquilo ou no direito de resposta. Tudo isso cai diante das redes sociais, fenômeno que os jovens vão entender mais, da 'lacração', uma coisa que se coloca e que corre mundo em uma rapidez que é difícil de evitar. De fato a Justiça Eleitoral tem aqui um grande desafio. Já na gestão anterior, que balizou as eleições de 2022, o Ministro Alexandre de Morais ordenou grupos para acompanhar a questão da desinformação no TSE. E agora essas resoluções trazem, ou tentam trazer, respostas para essas questões. Todas aquelas práticas antigas realmente ficaram obsoletas e totalmente superadas. De toda forma, é importante refletir com solidez teórica os desafios à frente em termos de regime de responsabilização de intermediários online de conteúdo", acrescentou Gilmar Mendes.

Ele prosseguiu em sua fala destacando também que o mundo hoje tem discutido dois arquétipos de regime de responsabilidade civil nos diversos modelos de regulação. A compreensão desses dois arquétipos, ressalta o Ministro, pode oferecer insights valiosos para o caso brasileiro.

"O primeiro é o paradigma da 'Proteção da Neutralidade de Conteúdo Online', o qual é comumente associado à transmissão de direitos negativos de liberdade de expressão. Esse primeiro paradigma foi crucial para garantir a liberdade de expressão da internet nas últimas duas décadas. Ele se estrutura a partir de regimes jurídicos de responsabilidade fraca dos intermediários pelo conteúdo de terceiros. Nesse paradigma, a moderação do conteúdo online acaba sendo majoritariamente desempenhada por mecanismos de auto regulação das próprias plataformas. Em linhas gerais, o artigo 19 do Marco Civil da Internet, corresponde a essa concepção de neutralidade do conteúdo, ainda que com algumas exceções mais duras à responsabilidade de veiculação de conteúdo específicos que envolvam imagens íntimas e violem direitos. O segundo paradigma, que é de desenvolvimento mais recente, aponta para a regulação procedimental do discurso online. Esse paradigma nasce da presunção de que a liberdade de expressão na internet requer não apenas uma proteção contra a intervenção do Estado como a existência de condições mínimas de proteção da condição democrática de espaços virtuais em benefício social da pluralidade. Tal paradigma está sendo aprofundado nas legislações europeias recentes. Ele se baseia na criação de obrigações positivas para as redes sociais, sobretudo para aprimorar a transparência nas decisões de moderação de conteúdo na assunção de compromissos de maior cautela no tratamento de manifestações ilícitas na internet.

O Ministro Gilmar Mendes afirmou ainda em sua palestra que o contraste entre estes dois paradigmas de regulação é capaz de expor oportunidades e desafios no novo regime legal para as plataformas digitais no Brasil.

"Como já está claro, vivemos um ponto de inflexão no debate sobre a liberdade de expressão no cenário nacional que indubitavelmente necessita de novos passos por parte do Executivo, do Legislativo e do Judiciário. O primeiro paradigma de regulação das mídias sociais, está relacionado à abordagem tradicional de irresponsabilidade do intermediário pelo conteúdo de terceiros. No contexto norte-americano a Suprema Corte, tradicionalmente tem adotado uma postura de exaltação do direito de liberdade de expressão, consagrado na Primeira Emenda. Após reformas na legislação, passou a garantir mais explicitamente uma imunidade quase que absoluta aos intermediários online pela veiculação do conteúdo de terceiros, excepcionalmente nos casos de violação de direitos autorais. Ainda assim, a Suprema Corte norte-americana tem se deparado com casos em que os limites da imunidade previstos na legislação são colocados à prova. Essa perspectiva de responsabilidade pelo conteúdo nem era prevalecente no Direito Comunitário Europeu até 2022. Essa abordagem é adotada pela Diretiva de Comércio Eletrônico, que também estabelecia um regime geral de privilégios de segurança para provedores de conteúdo e por decisões da Corte Europeia de Justiça. A posição prevalente no cenário europeu, tanto na doutrina e na jurisprudência era que o mero condutor da informação não poderia ser qualificado como um partícipe da atividade ilegal perpretada pelo usuário. A opção por regulações estatais que atenuam a responsabilidade dos intermediários , por sua vez, ampliou consideravelmente o papel de moderação de conteúdo realizada pelas plataformas. Em vez de figurarem meramente como agentes passivos na intermediação de conteúdos produzidos por terceiros, empresas como Facebook, Google e Amazon são hoje capazes de interferir no fluxo de informações, de filtros, bloqueios ou reprodução em massa de conteúdos produzidos pelos seus usuários. Essa interferência no fluxo informacional é caracterizada pelo uso intensivo de algoritmos e ferramentas de Big Data, que permitem às plataformas manipular e controlar a forma de propagação de conteúdos privados de forma pouco transparente.

Gilmar Mendes destacou que todas estas particularidades da atuação dos provedores de conteúdo denotam que tais agentes assumem hoje uma postura não neutra no tratamento da comunicação de suas redes.

"Decisões privadas, tomadas por estas empresas, produzem impactos diretos nas possibilidades de realização de liberdades públicas. Tal realidade enseja duas implicações relevantes para a proteção dos direitos relacionados à liberdade de expressão. Em primeiro lugar, verifique-se que os atores privados da internet se tornam responsáveis por mediar situações que conflitam entre direitos básicos, direitos fundamentais básicos às vezes antes da própria autoridade. De fato, as plataformas digitais exercem uma função normativa importante ao estabelecer regulamentos e termos de uso de seus serviços. Embora representem simples contratos entre as partes, em muitos casos estes documentos adotam jargões típicos de textos constitucionais, que projetam na relação privada direitos como de livre acesso e compartilhamento de informações e o direito de estabelecer o controle de privacidade sobre seus dados. Em segundo lugar, além de estabelecer as regras do jogo, o tratamento de dados e de conteúdo com os usuários, os intermediadores também assumem a função de resolver conflitos entre os participantes da rede, ou entre estes e a própria plataforma. Por fazer cumprir os regulamentos e termos de uso, as empresas se engajam em uma verdadeira função adjudicatória de Direito. Nesse sentido, as plataformas digitais funcionam como verdadeiros tribunais, considerando que elas têm o poder de decidir pela exclusão ou manutenção de conteúdo. Ou mesmo pela permanência ou retirada de participantes da rede, sem a necessidade de qualquer interferência de um órgão administrativo ou judiciário.

O Ministro do STF também assinalou que, neste contexto, devido à centralidade que o poder privado das plataformas adquiriu na moderação do conteúdo online, muitas empresas passaram a incorporar discursos constitucionais na regulamentação privada do funcionamento dos seus serviços.

"Todavia, essa articulação de estatutos internos acaba por ser insuficiente para proteção integral dos direitos dos usuários relacionados à liberdade de expressão. Há uma compreensão cada vez maior de que a participação nas mídias sociais configura como um instrumento essencial para o exercício das liberdades individuais. Esse diagnóstico coloca em debate até que ponto as redes sociais são espaços verdadeiramente privados ou se esses serviços, na realidade, mais se aproximam a áreas públicas de circulação de conteúdo. Em segundo lugar, e esse parece ser um ponto crucial, as preocupações com as restrições de liberdades individuais nas redes sociais, estão sendo agora debatidos em um contexto mais amplo, de governança das plataformas. Reconhece-se aqui que o poder dos controladores de redes se exerce não apenas no eventual acionamento arbitrário das cláusulas contratuais privadas, mas de modo mais rigoroso no exercício pouco transparente dos seus interesses econômicos que informam os atos de moderação e policiamento dos seus usuários. Todas essas deficiências do paradigma de neutralidade do conteúdo colocam dúvidas sobre a suficiência do sistema jurídico brasileiro. No Brasil, o Sistema Jurídico de Responsabilidade Civil de Intermediários de Conteúdos Online se estruturou, como todos sabem, em torno do Marco Civil da Internet, especialmente do artigo 19 do Marco Civil da Internet. Esse dispositivo foi fruto de um amplo debate legislativo, com a participação ativa de múltiplos stakeholders e de representantes da sociedade civil. Na redação atual, o dispositivo prevê que, em regra, o provedor de aplicações de internet somente poderá ser responsabilizado por danos decorrentes de conteúdo gerado por terceiros se após ordem judicial específica não tomar as providências para tornar indisponível o conteúdo apontado como infringente. Ainda que o artigo 19 do Marco Civil da Internet não se amolde perfeitamente a um paradigma de neutralidade de conteúdo, em regra, ele prescreve uma lógica de irresponsabilidade ou de responsabilidade mitigada das plataformas pelo conteúdo de terceiros.

Para o Ministro, é possível afirmar que a doutrina nacional tem interpretado que o artigo 19 do Marco Civil da Internet representou uma opção do legislador pelo modelo de responsabilização judicial, com o intuito de preservar a liberdade de expressão na internet, ainda que em detrimento do controle absoluto do usuário sobre a informação. A escolha, porém, não deveria significar necessariamente que o provedor esteja impedido de realizar a remoção do conteúdo na inexistência de ordem judicial.

"Caso a partir de uma notificação extrajudicial de um usuário a empresa constate que está diante de uma violação dos termos da rede social, por exemplo, a empresa poderá proceder a retirada de conteúdo, ainda que sem ordem judicial. Assim, na realidade, o artigo 19 do Marco Civil da Internet não prevê que a única hipótese de remoção de conteúdo consiste na existência de ordem judicial. Mas, ao contrário, explicita que sempre que tal ordem existir o conteúdo deve ser removido pela plataforma. Diante desse desenho institucional adotado pelo Marco Civil da Internet, era legítimo afirmar que boa parte do sistema de moderação de conteúdo online no Brasil está concentrado no exercício de estratégias de auto regulação por parte das plataformas. Isso porque são esses próprios agentes privados que, a partir da ordenação das regras de suas comunidades, implementam primariamente a atividade de moderação de conteúdo. A suficiência da auto regulação de desregulado suscita porém controvérsias diante da veiculação e impulsionamento massivo de conteúdo de terceiros possivelmente ilícitos", assinalou Gilmar Mendes.

De acordo com o Ministro, todos estes fatores levam a crer que, embora o artigo 19 do Marco Civil da Internet tenha sido de inegável importância para a construção de uma internet plural e aberta no país, hoje o dispositivo parece, se mostra ultrapassado.

"A corroborar esse diagnóstico, diversas iniciativas estrangeiras têm construído regimes de responsabilidade mais sofisticados para operação de plataformas digitais. É importante buscar um meio do caminho entre o regime da liberdade total das plataformas e um regime de controle estatal completo. Essa tem sido até aqui a tentativa de jurisdições democráticas estrangeiras. O segundo paradigma regulatório, que merece a nossa consideração, responde à regulação procedimental das redes sociais. Nos últimos anos, diversas opções legislativas têm sido imaginadas no combate de determinados comportamentos ilícitos praticados nos ambientes virtuais, tais como a difusão de discursos de ódio, manifestações difamatórias ou, ainda, de notícias falsas. A nova onda de leis de plataformas estrangeiras têm buscado impor balizas para a moderação de conteúdo. Essas novas legislações, como a da União Europeia, adotam estratégias de regulação bastante sofisticadas. Não definem previamente o que é conteúdo ilícito justamente para não incidirem no risco de comprometer a liberdade de expressão, gerando um efeito de silenciamento das redes sociais. Elas também não retiram das plataformas a função primordial de moderar o conteúdo. Por outro lado, elas elegem estratégias regulatórias processuais, que colocam sobre os ombros das plataformas a responsabilidade de desenhar os seus serviços de forma mais segura para impedir a circulação e impulsionamento de conteúdos que podem comprometer direitos fundamentais e as condições democráticas da lei. O foco dessas novas legislações não incidem na demarcação material do conteúdo. Elas dispõem apenas sobre o design dos serviços, sobre seus modelos de negócio e sobre a forma como essas plataformas gerenciam riscos e tratam da exposição de usuários aos riscos da exposição de conteúdos danosos. Essa estratégia de focar no procedimento e não no aspecto material do conteúdo online torna as novas leis de regulação de plataformas profundamente distintas das antigas normas que atribuem responsabilidade aos veículos de mídias tradicionais como rádio e televisão. Devido às plataformas funcionarem a partir de processos contínuos e devido ao alcance transnacional dos seus modelos de negócios, é muito difícil reproduzir no mundo das plataformas o tradicional modelo que separa conteúdo da transmissão. Na realidade, o que essas novas regulações mostram é que é preciso focar na arquitetura tecnológica das plataformas, principalmente nas decisões que são tomadas sobre como tratar reclamações feitas por usuários e na publicização e transparência de seus critérios.

Gilmar Mendes destaca que, nas discussões sobre o tema no Reino Unido, por exemplo, tem se desenvolvido o conceito do dever de cuidado como um novo centro de gravidade no regime jurídico . O conjunto de regras que compõem o tal dever de cuidado, não requer uma absoluta proteção contra todo e qualquer conteúdo ilegal online.

"Avaliar o cumprimento desse dever, o que se busca investigar, é se a plataforma adota rotineiramente práticas razoáveis para impedir o surgimento e o espraiamento de riscos sistêmicos à ordem democrática. De forma semelhante, o DSA, da União Europeia, que entrou em vigor em 2024 exige que as plataformas realizem a retirada de conteúdos ilícitos tão logo tomem conhecimento e adotem medidas de transparência para deixar claro como funciona a sua tomada de decisões na moderação de conteúdo. Além disso, as plataformas têm a obrigação de agir de forma diligente, objetiva e proporcional na aplicação e cumprimento das restrições estabelecidas nos termos e condições de uso dos seus serviços. o DSA exige ainda que as plataformas implementem ações de mitigação de riscos que podem incluir adaptações nos termos de serviço das plataformas, bem como processos de moderação de conteúdo em si. Importante deixar clara a flexibilidade que o modelo do DSA traz em uma lógica de diálogo regulatório constante com o setor. O seu artigo 7º, por exemplo, prescreve que os seus prestadores de serviços podem manter a imunidade pelo conteúdo de terceiros quando voluntariamente e de boa fé usem investigações próprias destinadas a identificar a retirar conteúdos ilegais ", afirmou.

Segundo o Ministro do STF, os exemplos apresentados mostram que leis de responsabilidade mais rígidas e modernas "não precisam necessariamente se arvorar na exauriente regulação da liberdade de expressão na internet".

"No Brasil, é fundamental que um novo regime jurídico aumente a confiabilidade e a previsibilidade na moderação de conteúdo, a partir de garantias processuais e de mecanismos de resolução e disputa mais transparentes nas plataformas. A opção de focar mais no processo e menos na substância do conteúdo, parece de fato ser um caminho importante no debate. Adicionalmente, não podemos fugir do fato que a demarcação da ilicitude do conteúdo online possui íntima relação com a própria tutela penal já existente. A contraprodução dos dois paradigmas de regulação mostram que o regime jurídico do Marco Civil da Internet, embora tenha sido inegavelmente importante para a preservação da liberdade de expressão online no Brasil, precisa ser revisto. É inegável que a construção de um novo regime regulatório requer um amplo debate público com a participação de todos os stakeholders, da sociedade civil e da iniciativa privada. Estou convencido de que este é um debate inadiável", concluiu o Ministro Gilmar Mendes.

O Procurador-Geral do Estado do Rio de Janeiro, Renan Saad, ressaltou a importância do tema da palestra do Ministro Gilmar Mendes no âmbito da Responsabilidade Civil.

"O tema coloca mais uma vez a perspectiva da Responsabilidade Civil como um desafio que precisa ser vendido pela sociedade, pelo Parlamento e obviamente com a indicação absoluta do Supremo Tribunal Federal dos balizamentos que são necessários", assinalou Renan Saad.

O Procurador-Chefe do Centro de Estudos Jurídicos da PGE-RJ (Cejur) Carlos Edison do Rêgo Monteiro Filho, também falou sobre a importância da reflexão desenvolvida pelo Ministro Gilmar Mendes de um tema que é sensível e os avanços e problemas que a tecnologia nova suscita e o poder devastador de um mundo completamente novo e diferente em poucos anos.

"Atualmente estamos diante de uma problemática extremamente complexa. Os efeitos do 8 de Janeiro de 2023 ainda se fazem sentir em muitos lugares. É preciso que nós, dentro do ordenamento jurídico, operadores do Direito reflitamos. Precisamos aprofundar os debates. É necessária uma conscientização da sociedade e que possamos conseguir nas nossas limitações colocar luzes para esses sistemas todos e para esses novos agentes de poder que estão em meio à sociedade", destacou o Procurador-Chefe do Cejur.

O evento teve a coordenação científica do Centro de Estudos Jurídicos da PGE-RJ (Cejur), do Instituto Brasileiro de Estudos de Responsabilidade Civil (IBERC), e do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP).

Galeria de Imagens


Endereco Rua do Carmo, 27, Centro Rio de Janeiro
Acompanhe as ações da PGE-RJ também nas redes sociais YouTube Facebook Twitter