Skip to main content
ComissõesNotasNotícias

Comissão de Privacidade, Proteção de Dados e Inteligência Artificial da OAB SP manifesta preocupação quanto ao PL 2630/2020

By 27 de abril de 2023No Comments
OAB SP promove debate sobre PL 2630/2020, nesta terça

A Ordem dos Advogados do Brasil seção São Paulo (OAB SP), por meio de sua Comissão de Privacidade, Proteção de Dados e Inteligência Artificial, vem, através da presente nota, manifestar sua preocupação quanto ao Projeto de Lei 2630/2020 (que visa instituir a legislação brasileira de “Liberdade, Responsabilidade e Transparência na Internet”).

A propositura pretende estabelecer novos limites e obrigações referentes à matéria já devidamente tratada na Lei Geral de Proteção de Dados (LGPD) e no Marco Civil da Internet (MCI), criando restrições e penalidades mais severas do que as existentes em legislação própria, além de afrontar o direito constitucional da liberdade de expressão.

Comentários gerais

Está havendo um notório atropelo do processo legislativo e um enorme prejuízo ao debate com a sociedade civil.

O PL 2630/2020 tinha como objetivo inicial combater o fenômeno da desinformação na internet – e esse foi seu enfoque durante os quase três anos de tramitação, ainda que as versões que se sucederam ao longo desse tempo tenham passado a incluir um ou outro tema que extrapolavam esse propósito.

A pressão popular e midiática que decorreu dos episódios de ameaças de ataques a escolas e a renovação da Câmara dos Deputados levou a uma aceleração no trâmite da proposta e à completa mudança no enfoque, que se tornou um projeto de regulação das plataformas.

Essa aceleração, contudo, acontece em prejuízo de um debate adequado, amplo e representativo, como exige o tema.

Em 30/03/2023, o Governo enviou ao Legislativo sua proposta ao PL 2630 que, em 17/04/2023, foi divulgada de maneira não oficial como uma versão do texto do PL 2630, incorporando parte da proposta apresentada pelo Governo à versão do Substitutivo, de março de 2022 (última versão oficial conhecida do texto), incluindo noções que não haviam sido debatidas até então, como “riscos sistêmicos” e “dever de cuidado”.

A versão não oficial de 17/04/2023 continha 27 artigos novos, em relação ao Substitutivo de março de 2022, ou seja, 40,9% do texto era novo.

Em 25/04/2023, foi divulgada outra versão não oficial do texto do PL 2630, com menos alterações.

Ainda em 25/04/2023, foi aprovado o regime de urgência para o PL 2630, de modo que a Câmara dos Deputados está na iminência de votar um projeto cujo texto integral não foi formalmente apresentado à sociedade civil – embora este tenha tramitado por quase três anos.

Não se sabe a origem dessas versões não oficiais do texto do PL 2630, tampouco qual será a versão votada na próxima semana.

Isso é sintomático de um processo legislativo atropelado e que não viabiliza a participação pelas vias institucionais adequadas de todos os setores que serão impactados pelo projeto.

Apesar de a urgência ser um mecanismo previsto no Regimento Interno da Câmara dos Deputados, o PL 2630 toca em temas sensíveis e importantes para a sociedade e a economia brasileiras.

E, apesar de seus três anos de tramitação, o PL 2630 não passou por discussões aprofundadas sobre seu conteúdo.

Na realidade, o projeto foi analisado apenas por um Grupo de Trabalho de 13 deputados, sem respeito à proporcionalidade partidária.

A pluralidade (assegurada no artigo 58, § 1º da Constituição Federal [CF]) é corolário do exercício pleno da democracia, viabilizando o encontro de diferentes opiniões, perspectivas e interesses da sociedade sobre um determinado assunto.

Mas não é só isso.

O PL 2630 não passou por nenhuma Comissão.

As Comissões temáticas são de fundamental importância para o adequado escrutínio de temas técnicos e com impactos tão profundos na sociedade.

É no âmbito desses órgãos que se possibilita uma discussão ampla, profunda e fundamentada sobre o tema, garantindo-se a liberdade para expressão das opiniões e formação do consenso que, emitido sob a forma de parecer da Comissão, irá orientar o Plenário na apreciação da matéria.

O PL 2630 tem outros 90 projetos apensados e, justamente pela relevância do tema, foram originariamente distribuídos – e não analisados – a cinco Comissões da Câmara, quais sejam: Comissão de Ciência, Tecnologia e Inovação (CCTCI); Comissão de Constituição e Justiça e de Cidadania (CCJC); Comissão de Finanças e Tributação (CFT); Comissão de Saúde (CSAUDE) e Comissão de Trabalho (CTRAB).

O tema tratado pelo PL 2630 merece todas as ferramentas fornecidas pela CF e pelo Regimento Interno da Câmara dos Deputados para viabilizar um debate profundamente técnico e amplamente representativo – como deve ser em uma democracia.

A título de exemplo, o Regimento Interno da Câmara dos Deputados prevê instrumentos de participação social no debate político, como é o caso das Audiências Públicas (artigo 225) e das atividades da Secretaria de Participação, Interação e Mídias Digitais (artigo 21-L).

Tamanha é a necessidade de discussão que, atualmente, há cinco requerimentos parlamentares para instalação de uma Comissão Especial, um deles contando com a assinatura de 106 parlamentares.

Basta lembrar que o MCI – que sofrerá alterações em dispositivos que constituem a sua essência caso aprovado o PL 2630 – foi objeto de rigoroso processo legislativo e amplamente debatido com entidades de classe, organizações da sociedade civil e instituições dedicadas ao tema.

O Marco Civil da Internet é fruto de um consenso social representativo dos processos democráticos.

A CF preconiza que os deputados são representantes do povo e dispõem de ferramentas para que os debates legislativos sejam guiados por esse ditame.

É lamentável que se faça a opção por caminhos regimentais abreviados, em desprestígio ao processo legislativo recente que resultou na edição do MCI, justamente quando se está debatendo um tema tão relevante para a sociedade brasileira.

Não se trata de acabar com o propósito de regulação das plataformas – mas de se garantir que todas as vias para um estudo técnico e aprofundado e para a ampla participação popular sejam utilizadas.

O texto precisa ser amadurecido

Qualquer regulação deve ser suficientemente precisa para garantir segurança jurídica, maleável e adaptável aos novos contextos sociais e às novas tecnologias, para que seja capaz de resistir ao tempo.

O texto do PL 2630 revela que ainda não chegou à sua maturidade, visto oscilar entre dois extremos.

De um lado, o texto adota conceitos desconhecidos na legislação brasileira, que tampouco são definidos ou explicados no projeto.

É o caso de “riscos sistêmicos” ou “dever de cuidado”, cujos significados não são claros.

Além disso, o texto adota conceitos vagos e indeterminados, tais como “conteúdos potencialmente ilegais” (com relação aos quais as plataformas deveriam atuar preventivamente, “de forma diligente” e em “prazo hábil”).

Esses problemas de técnica legislativa geram insegurança jurídica ao particular, destinatário da norma, e à toda a sociedade, já que não há objetividade naquilo que se espera da norma – além, claro, de violar o dever de precisão imposto ao legislador (artigo 11, II a da Lei Complementar 95/1998).

De outro lado, há um detalhamento excessivo de obrigações, o que tende a tornar a lei engessada, de difícil aplicabilidade, pouco adaptável ao estado da arte das novas tecnologias e constantes evoluções/mudanças sociais.

A tendência é que uma lei com esse perfil se torne obsoleta muito rapidamente e tenha uma baixa aderência e dificuldades na sua aplicação.

A liberdade de expressão na internet em risco

O PL concentra excesso de poder nas plataformas ao lhes impor um dever de ponderação sobre os limites da liberdade de expressão dos usuários em situações pouco claras, que exigirão um juízo de valor sobre o contexto e a natureza do conteúdo, além de exigirem uma análise jurídica prévia, se determinada situação configura crime.

Esse tipo de atividade não apenas extrapola as atividades típicas das plataformas, como em determinadas situações deve ser reservada ao Estado.

É o caso, por exemplo, da definição de potencial tipicidade penal de conteúdos veiculados por terceiros, que é atividade fiscalizatória e persecutória inerente ao Poder de Polícia, típica do Estado.

A noção de ius puniendi exclusivo do Estado é fundamento básico do contrato social que orienta a vida em sociedade e pressupõe que cabe unicamente ao Estado o poder/dever de punir (tanto é que o artigo 345 do Código Penal criminaliza a conduta do particular que intenta avocar tais poderes para o exercício arbitrário das próprias razões).

A análise a ser realizada pelo particular acerca de possíveis ilícitos praticados por terceiro sem a prévia intervenção do Poder Judiciário tende a ser superficial e pode ser equivocada, na medida em que não dispõe de instrumentos aptos para investigar com a profundidade necessária para a aferição adequada e correta dos eventuais fatos que possam constituir ilícito.

A responsabilização das plataformas por conteúdo de terceiro é deletéria para a liberdade de expressão em, pelo menos, dois sentidos:

Por receio da responsabilização, as plataformas acabarão removendo previamente os conteúdos, de forma menos criteriosa do que fazem hoje, o que pode resultar na remoção de conteúdo lícito pelo receio antecipado de responsabilização.

As plataformas não estão na melhor posição para definir se um conteúdo é “potencialmente ilegal” e, pelo receio de responsabilização, acabarão removendo conteúdo limítrofe.

Por exemplo, enquanto o conteúdo relacionado à pedofilia e pornografia infantil é mais fácil e objetivamente verificável, a identificação de categorias abstratas como conteúdo “antidemocrático” é muito mais problemática.

Essa análise depende de um juízo subjetivo do contexto do conteúdo e das intenções do usuário.

Ações judiciais que hoje são ajuizadas contra os produtores de conteúdos ilícitos passarão a ser ajuizadas contra as plataformas – que são mais facilmente localizáveis e mais solventes.

Assim, os usuários se sentirão mais livres para compartilhar conteúdo ilícito, favorecendo o exercício irresponsável da liberdade de expressão.

O PL 2630 ainda incorre em uma contradição no tratamento da liberdade de expressão: de um lado, exige das plataformas exagerado controle do fluxo informacional na internet e, de outro, propõe um quadro de isenção de responsabilidade de agentes públicos na internet.

Essa imunidade que se busca para agentes públicos é desproporcional até mesmo se comparada à imunidade parlamentar prevista no artigo 53 da CF, já que a imunidade constitucional não se aplica a casos em que o agente diz ou escreve algo fora do exercício de sua função.

Esse quadro de impunidade é preocupante, diante de um cenário em que ocupantes de cargos públicos foram notoriamente responsáveis por disseminar desinformação nas redes sociais nos últimos anos.

Excesso de poder nas mãos de órgão do Poder Executivo

O PL 2630, ao prever a criação de uma entidade autônoma de supervisão, atribui excessivos poderes a um órgão que será, necessariamente, subordinado ao Poder Executivo – já que não se trata de autarquia, única hipótese em que poderia gozar de autonomia administrativa.

Esse é um risco gritante para a liberdade de expressão na internet e que remete a regimes autoritários de censura.

O órgão que se pretende criar terá enormes poderes, dando espaço para abusos graves.

As plataformas se tornariam efetivos braços dos governos e teriam que seguir suas orientações no contexto da instauração de protocolos de segurança, inclusive com a mudança de seus termos de serviço e interface, se assim determinado.

Essa é uma intervenção no domínio privado rechaçada pela CF e que se aproxima de um regime de exceção.

As mudanças na governança das plataformas seriam feitas de forma aleatória, sem parâmetros globais e critérios técnicos, em conformidade com o mero desejo dos gestores de plantão.

É institucionalmente perigoso alocar esse tipo de poder – de verdadeira gestão da internet – nas mãos de um órgão do Poder Executivo sujeito às flutuações e influências políticas.

Esse tipo de poder concentrado em um órgão que carece de autonomia e formação técnica pode conduzir, no extremo, a um cenário de manipulação do conteúdo da internet.

A remuneração de conteúdo jornalístico

Impor a obrigação de remunerar o conteúdo jornalístico, apesar de ter como objetivo proporcionar um incentivo econômico ao jornalismo profissional, buscando reequilibrar o mercado de publicações e publicidade, movimentado pela expansão digital, é medida que pode ter efeito contrário, principalmente em relação a atores de pequeno e médio porte.

A imposição desse pagamento pode resultar na redução (ou até no impedimento) de publicações jornalísticas pelas plataformas – o que vem em prejuízo de toda a sociedade.

Além disso, depois que o Superior Tribunal Federal (STF) reconheceu a desnecessidade de diploma de jornalista para o exercício da atividade, a noção de “conteúdo jornalístico” tornou-se fluida e pouco objetiva.

Isso pode levar à remuneração de veículos que são, na realidade, de desinformação, na contramão do que se pretendia originalmente.

O prejuízo ao ambiente de negócios na internet e a violação à livre concorrência

Algumas obrigações do PL 2630 representam uma intervenção excessiva no domínio privado, impondo às plataformas um conjunto excessivo de restrições que mais se assemelha a um regime de direito público e desnatura princípios basilares de um regime de direito privado, como a liberdade contratual, a intervenção mínima e a excepcionalidade da revisão contratual.

Isso desincentiva o ambiente de negócios e de inovação e incrementa o risco da atividade das plataformas a ponto de afastar investidores estrangeiros – o que resultará no isolamento do Brasil em relação ao estado da arte em tecnologia e modelos de negócios, em comparação ao cenário internacional.

O PL 2630 pode ser prejudicial à concorrência, pois limita a capacidade das empresas de competirem entre si.

O combate à desinformação não está associado ao tamanho e tipo de mídia (on-line ou off-line) e, sim, à propagação dos conteúdos enganosos/abusivos.

Por exemplo, uma notícia enganosa pode ser veiculada por um canal de televisão local, regional ou de âmbito nacional e ser replicada por um ou mais usuários numa rede social, e vice-versa.

Não há, assim, justificativa razoável e plausível para que o PL 2630 imponha obrigações apenas às plataformas.

Ao gerar obrigações exclusivas, o PL 2630 não apenas deixa de efetiva e eficientemente atacar o seu objetivo, mas também privilegia empresas que atuam em mercados off-line (mídia tradicional como um todo, por exemplo, emissoras de rádio e TV, jornais e revistas).

Regime de responsabilidade civil e moderação de conteúdo

O PL 2630 impõe obrigações excessivas e inadequadas às plataformas, tanto em relação ao dever de remoção de conteúdo de usuários, quanto em relação aos mecanismos de moderação.

De um lado, o PL 2630 impõe às plataformas o dever e o poder de controlar todo o fluxo informacional da internet, decidindo expressamente sobre indícios de autoria e materialidade penal de conteúdo publicado na internet.

De outro, o PL impõe excessivo dever de transparência sobre os critérios usados para moderação de conteúdo e sobre os sistemas automatizados e algoritmos que utilizam, por meio da imposição de informações específicas que devem constar dos termos de uso, das comunicações com os usuários e dos relatórios semestrais de transparência.

Esses excessos podem resultar em um cenário prejudicial não apenas para as plataformas, mas para a sociedade brasileira, conforme explicado adiante.

Dever de fiscalizar conteúdo com base em tipos penais

O PL concentra excesso de poder nas plataformas ao lhes impor um dever de ponderação sobre os limites da liberdade de expressão dos usuários, em situações pouco claras, que exigem um juízo de valor sobre o contexto e a natureza do conteúdo e, até mesmo, que exigem uma análise jurídica se determinada situação configura crime.

Esse tipo de atividade não apenas extrapola as atividades típicas das plataformas, como, em determinadas situações, deve ser reservada ao Estado.

O PL impõe às plataformas de internet o dever de fiscalizar e exercer um juízo material sobre o conteúdo de terceiro, a partir da legislação penal.

Essa previsão delega indevidamente a entes privados um dever que é do Estado – especialmente das autoridades de persecução penal, que têm melhores condições de analisar o preenchimento dos requisitos que configuram o tipo penal no caso concreto.

São essas as autoridades a quem a lei delegou a atividade fiscalizatória e persecutória inerente ao Poder de Política (ius puniendi) – e não às plataformas de internet.

Ao invés de proteger os direitos dos usuários, a imposição de remoção de conteúdo com base em tipos penais abstratos pode resultar em grave violação à liberdade de expressão dos usuários (garantida pelos artigos 5º, IV e 220, §2º da CF) nos casos em que há um juízo equivocado pela plataforma, quanto à natureza criminosa do conteúdo. Isso é agravado pelo fato de que as plataformas poderão ser responsabilizadas caso deixem de remover o conteúdo supostamente ilícito, de modo que serão incentivadas a remover qualquer conteúdo que resvale nas hipóteses previstas no PL – ainda que seja lícito -, em detrimento da liberdade de expressão dos usuários.

Por receio da responsabilização, as plataformas acabarão removendo conteúdo de forma menos criteriosa do que fazem hoje, o que pode resultar na remoção de conteúdo lícito pelo receio de responsabilização.

As plataformas não estão na melhor posição para definir se um conteúdo é “potencialmente ilegal” e, pelo receio de responsabilização, acabarão removendo conteúdo limítrofe.

Por exemplo, enquanto o conteúdo relacionado à pedofilia e pornografia infantil é mais fácil e objetivamente verificável, a identificação de categorias abstratas como conteúdo “antidemocrático” é muito mais problemática. Essa análise depende de um juízo subjetivo do contexto do conteúdo e das intenções do usuário.

Apesar de afirmar que a seção referente às obrigações de fiscalização de conteúdo se destina à tutela do “dever de cuidado”, o PL não define esse conceito – apenas dispõe que as plataformas devem seguir tal dever.

Impor o dever de monitoramento de conteúdo com base em conceito genérico, que sequer é definido pela lei, teria dois efeitos negativos.

O primeiro deles seria incentivar a plataforma a remover qualquer tipo de conteúdo que possa remotamente sugerir uma violação ao dever de cuidado, o que implicaria, novamente, violação ao direito de liberdade de expressão de muitos usuários. O segundo é gerar uma situação de insegurança jurídica para as plataformas (violando o artigo 5º, XXXVI da CF) que acabaria prejudicando o desenvolvimento de novos modelos de tecnologia no Brasil – como demonstrado anteriormente.

Protocolo de segurança em caso de risco de danos à dimensão coletiva de direitos fundamentais

O PL 2630 prevê a possibilidade de instauração de protocolo de segurança pela entidade autônoma de supervisão em caso de risco de danos à dimensão coletiva dos direitos fundamentais.

Porém, a redação do PL gera insegurança jurídica aos usuários, aos órgãos públicos e às plataformas (violando o artigo 5º, XXXVI da CF), pois não esclarece o objetivo, tampouco o procedimento a ser adotado para a instauração do “protocolo de segurança”, deixando à cargo dos diversos destinatários da lei a interpretação do que poderia ser considerado como situação de “risco de dano à dimensão coletiva de direitos fundamentais”.

Mais uma vez, o legislador parece delegar ao Poder Judiciário, às custas de excessiva judicialização, preencher o conteúdo da norma legal para a regulação das plataformas de internet.

O PL 2630 também impõe às plataformas o dever de produzir relatórios específicos das ações tomadas em relação ao protocolo de segurança, conforme será regulamentado pela entidade autônoma de supervisão.

O PL ainda atribui a essa entidade a prerrogativa de analisar se houve abuso na aplicação das medidas previstas no protocolo de segurança, sob pena de aplicação das sanções previstas em lei.

Porém, o PL não é claro em relação ao que será considerado abuso por parte das plataformas.

Na verdade, a proposta delega à entidade autônoma o poder de definir o que deve constar do relatório produzido pelas plataformas e o que é considerado abuso – o que significará, na prática, o poder de definir os contornos do regime de responsabilidade civil aplicável, sem que tal regime seja submetido ao devido processo legislativo, nos termos do artigo 22, I da CF – o que violaria o devido processo legal (artigo 5º, LIV da CF).

Dever de remoção de conteúdo mediante simples notificação

O PL responsabiliza as plataformas de internet por eventuais danos causados por conteúdo de terceiro, nas hipóteses em que demonstrado conhecimento prévio, e em que (i) não tenham sido adotadas medidas previstas no PL, ou (ii) as medidas adotadas em situações em que foi instaurado o protocolo de segurança sejam consideradas insuficientes pela entidade autônoma de supervisão. Apesar de tal imposição ter o objetivo de garantir a segurança dos usuários de internet, na verdade, o ato de se responsabilizar as plataformas por todo e qualquer dano causado por conteúdo de terceiro teria um efeito muito deletério para a liberdade de expressão na internet, uma vez que, por receio de responsabilização, as plataformas acabarão removendo conteúdo de forma menos criteriosa do que fazem hoje – por exemplo, removendo imediatamente qualquer conteúdo que seja objeto de notificação, ainda que seja lícito.

Um dado importante é que, conforme relatório produzido pelo InternetLab em 2018 (dados disponíveis na plataforma Dissenso.org), em apenas 33,5% das ações com pedidos de remoção de conteúdo ajuizadas contra plataformas de hospedagem, os pedidos de remoção foram deferidos ou confirmados em segunda instância – ou seja, em mais de 60% dos casos, os pedidos de remoção foram considerados ilegítimos, infundados ou abusivos, e o seu pronto atendimento pelas plataformas teria implicado a remoção de manifestações e conteúdos legítimos, em prejuízo da liberdade de expressão na internet.

O PL também prevê que, ao serem notificadas por usuários sobre conteúdo potencialmente ilegal, as plataformas devem atuar de maneira diligente e de acordo com seus termos de uso para apurar eventual ilegalidade e aplicar as ações correspondentes.

Essa disposição apresenta uma contradição interna, pois impõe às plataformas um controle de legalidade do conteúdo a partir dos seus termos de uso – sendo que os termos de uso têm natureza contratual e não correspondem, necessariamente, ao ordenamento jurídico brasileiro.

Além disso, responsabilizar as plataformas por conteúdo de terceiro, independentemente de ordem judicial de remoção, poderia aumentar o ajuizamento de ações contra as plataformas, ao invés dos responsáveis pelo conteúdo – o que iria na contramão do que defende parte das entidades a favor do PL, que seria a responsabilização daqueles que propagam desinformação e discurso de ódio ou antidemocrático.

Esse redirecionamento das ações para as plataformas, ao invés dos responsáveis pelo conteúdo ilícito, também poderia gerar o efeito de que os usuários se sintam ainda menos compelidos a seguir as leis, e produzam ainda mais conteúdo ilícito.

Proteção de crianças e adolescentes

O PL 2630 impõe às plataformas o dever de atuar no melhor interesse da criança e do adolescente e impedir o uso quando o serviço não for a eles destinados.

No entanto, ao assim fazê-lo, o PL 2630 transfere às plataformas responsabilidades que são inerentes do poder familiar, já que é dever dos pais e responsáveis de dirigir a criação e educação de seus filhos ou representados.

Ao invés de definir qual seria a forma mais eficaz e proporcional de verificação da idade dos usuários pela plataforma, o PL 2630 trata da matéria de forma genérica, delegando às plataformas a responsabilidade de chegar a uma solução que permita realizar esse tipo de controle sem que haja coleta de dados pessoais adicionais do destinatário do serviço.

A imposição desse ônus é desproporcional, pois cabe ao Poder Público o dever de decidir questões sensíveis envolvendo a ponderação de direitos fundamentais, e é deveras problemática, pois o conceito do “melhor interesse da criança” é amplo e subjetivo, não havendo nenhuma orientação sobre a forma como ele deve ser aplicado no âmbito da internet.

A proposta gera insegurança jurídica às plataformas e aos usuários de um modo geral (público infanto-juvenil e responsáveis), pois não define sequer o que é considerado como “serviços que não são desenvolvidos para crianças e adolescentes”, ou que não estejam adequados a atender às necessidades deste público, como sugere sua redação.

Esse alto grau de insegurança gera um desincentivo ao investimento de novas tecnologias no Brasil – até mesmo as que seriam mais benéficas para a segurança e desenvolvimento de crianças e adolescentes.

Assim, o PL 2630 cria um desequilíbrio entre as plataformas e outros serviços de disseminação de conteúdo e, por conseguinte:

  • limita a capacidade das empresas de competirem entre si;
  • criando barreiras à entrada de novas empresas;
  • aumentando os custos daquelas que já atuam nos mercados afetados; e
  • limita o leque de escolhas do consumidor.

Mídias tradicionais (televisão, revistas, jornais) e mesmo mídias de entretenimento (videogame) também divulgam conteúdos acessados por crianças e adolescentes, mas não estão sob a obrigação de “criar mecanismos para ativamente impedir o uso do serviço”, mesmo “quando não forem desenvolvidos para ou não estiverem adequados a atender às necessidades deste público”.

Tal obrigação, portanto, favorece interesses econômicos de grupos restritos – aqueles que não serão afetados pela regulação.

Por fim, em relação à vedação de criação de perfis comportamentais de crianças e adolescentes para fins de direcionamento de publicidade, o PL 2630 também contribui para um desequilíbrio no tratamento regulatório concedido às plataformas e outros serviços de disseminação de conteúdo.

Isso porque a publicidade para crianças e adolescentes, na mídia tradicional, é direcionada.

Na televisão, por exemplo, é veiculada em horários específicos em que a programação é voltada para o público infantil – onde infere haver crianças assistindo.

Esses dispositivos apenas proíbem que plataformas digitais façam o mesmo, criando uma reserva de mercado das mídias tradicionais para anunciar produtos para crianças.

Na prática, anunciantes de produtos voltados ao público infantil deixarão de procurar publicidade de plataformas digitais, e voltarão todos os seus investimentos para mídias tradicionais, que ainda terão a liberdade de anunciar produtos de maneira mais eficaz para esse público.

Entidade autônoma de supervisão

O PL coloca em risco a liberdade na internet ao prever a criação de um órgão do Poder Executivo que terá amplos poderes de fiscalização e regulamentação da internet, além de poder aplicar sanções, mas que, em razão de sua natureza, não será dotado da necessária autonomia.

Apesar de haver previsão no PL de que essa “entidade autônoma de supervisão” teria autonomia técnica, administrativa e independência no processo de tomada de decisões, apenas autarquias têm garantida a autonomia administrativa, e autarquias dependem de criação por lei específica (artigo 37, XIX da CF e artigo 5º, I do Decreto-Lei 200/1967).

Considerando que o projeto não trata essa entidade autônoma como autarquia, ela não terá essa natureza e não contará com a autonomia que é própria desse tipo de órgão da administração pública indireta.

Como consequência, a “entidade autônoma de supervisão” será um órgão vinculado ao Poder Executivo, não havendo garantia de que terá autonomia técnica, administrativa e de decisão.

A criação de um órgão do Poder Executivo para fiscalizar e regulamentar a internet representa a criação de um gestor da internet sujeito às flutuações e influências políticas, colocando em risco a liberdade na internet.

Ainda que sejam respeitados os limites do PL na atividade de fiscalização e regulamentação, essa concentração de poder poderia levar a abusos.

Por exemplo, de acordo com o PL, essa entidade teria o poder de determinar a instauração de protocolo de segurança quando houver “risco iminente de danos” (conforme avaliação da própria entidade), a partir do qual as plataformas poderão ser responsabilizadas pelo conteúdo de usuários (conforme avaliação da própria entidade).

Esse tipo de poder concentrado em um órgão que não possui a autonomia necessária pode conduzir, no extremo, a um cenário de manipulação do conteúdo da internet.

Além disso, as plataformas teriam um dever de entrega de informações sem restrições a essa autoridade, o que representaria violação à proteção dos segredos comercial e industrial, constitucionalmente respaldados.

Além disso, também há risco de violação à garantia constitucional de segurança jurídica por contrariar o princípio da necessidade estabelecido pela LGPD: ao prever a possibilidade genérica de acesso às informações armazenadas por plataformas de conteúdo de terceiros especificamente pela via remota, sem especificar ou limitar tais informações, o dispositivo evidencia a limitação de caráter técnico das plataformas de implementarem, no atual estado da arte da tecnologia, a segregação das informações de seus usuários.

Considerando a dificuldade de limitar o acesso apenas às informações necessárias para o exercício da fiscalização pela entidade autônoma, é possível que o acesso remoto abranja, também, informações de usuários não relacionados às atividades voltadas para o Brasil, gerando a exposição indevida da privacidade desses indivíduos, inclusive, em contrariedade ao princípio da necessidade estabelecido pela LGPD (artigo 6º, III).

Segundo tal princípio, as entidades públicas e privadas devem limitar o tratamento de dados pessoais ao mínimo necessário para a realização de suas finalidades, com abrangência dos dados pertinentes, proporcionais e não excessivos em relação às referidas finalidades.

O dispositivo viola essa sistemática, ao possibilitar, ainda que por questões técnicas, que dados excessivos sejam compartilhados com a entidade autônoma.

Ademais, a previsão de que a “entidade autônoma de supervisão” contaria com “espaços formais de participação multissetorial”, não é suficiente para afastar esse risco ou garantir a independência do órgão, porque não se pode compreender e não há qualquer garantia na proposta (i) de que forma essa participação multissetorial aconteceria e (ii) quais seriam os setores representados.

Por fim, a forma prevista para criação da “entidade autônoma de supervisão” padece de má-técnica legislativa.

Primeiro, ao prever que a “entidade autônoma de supervisão” aplicará as “sanções cabíveis”, o projeto deixa de atender à exigência de precisão do artigo 11, II, a da Lei Complementar 95/1998, porque a redação não permite afirmar, com certeza, quais seriam as sanções que a “entidade autônoma de supervisão” teria competência para aplicar, o que gera dúvida sobre o conteúdo e alcance da norma.

Por exemplo, não há clareza se seriam apenas as sanções previstas na proposta, se se incluiria a apuração de crimes (o que seria inconstitucional), ou se incluiriam as sanções previstas em outras leis, como o próprio Marco Civil da Internet e o Código de Defesa do Consumidor.

Em segundo lugar, a previsão de que a “entidade autônoma de supervisão” contaria com “espaços formais de participação multissetorial” é pouco precisa, porque não há clareza (i) de que forma essa participação multissetorial aconteceria e (ii) quais seriam os setores representados.

O texto é impreciso, posto que a expressão “contando com espaços formais de participação” não permite que se compreenda “o objetivo da lei” e não permite que o texto evidencie “com clareza o conteúdo e o alcance que o legislador pretende dar à norma”.

Remuneração de conteúdo jornalístico

O PL impõe às plataformas a obrigação de remunerar o conteúdo jornalístico compartilhado pelos usuários, exceto no caso de compartilhamento pelo usuário final, em seu perfil ou conta, de hyperlink ou URL.

Apesar de ter como objetivo proporcionar um incentivo econômico ao jornalismo profissional, buscando reequilibrar o mercado de publicações e publicidade, a remuneração desse conteúdo é medida que pode ter efeito contrário por, pelo menos, três motivos.

Em primeiro lugar, o conceito de “conteúdo jornalístico” não foi definido pelo dispositivo, tampouco é fornecido por qualquer outro diploma legal.

Um problema que decorre da insegurança em relação ao que é ou não “conteúdo jornalístico” é que veículos independentes, de pequeno ou médio porte, que não são ainda reconhecidos como veículos jornalísticos, podem ser impactados negativamente por essa proposta, que acabaria privilegiando grandes empresas, o que viola a liberdade de imprensa (artigo 220 da CF) e a livre concorrência (artigo 170 da CF).

Em segundo lugar, depois que o STF reconheceu a desnecessidade de diploma de jornalista para o exercício da atividade, a noção de “conteúdo jornalístico” tornou-se fluida e pouco objetiva.

Isso pode levar à remuneração de veículos que são, na realidade, de desinformação, na contramão do que se pretendia originalmente e em violação ao direito à informação garantido constitucionalmente (artigo 5º, XIV da CF).

Terceiro, considerando que a única exceção prevista ao pagamento são as hipóteses de compartilhamento por usuário final, de hyperlink ou URL, o PL também pode acabar encorajando as plataformas a reduzirem o compartilhamento de publicações jornalísticas para privilegiar apenas a divulgação de links das notícias, a fim de se enquadrar na exceção prevista.

A consequência disso seria, de um lado, o prejuízo ao acesso dos usuários à íntegra de matérias jornalísticas (e portanto, à informação) e, de outro, o impacto negativo sobre as empresas jornalísticas que dependem mais ou até exclusivamente das plataformas para divulgar seu conteúdo na internet – por exemplo, de empresas de pequeno porte que desenvolvem jornalismo independente.

Essas seriam consequências que viriam em prejuízo de toda a sociedade.

Por fim, o PL não condiciona a obrigação de os provedores remunerarem as empresas jornalísticas à existência de direito autoral sobre tal conteúdo.

Isso significa que o direito à remuneração constituiu um direito sui generis, independente da existência de direitos autorais sobre o conteúdo – o que geraria dúvidas, por exemplo, quanto à aplicação das exceções previstas na Lei de Direitos Autorais.

Remuneração de conteúdo protegido por direitos autorais

O PL 2630 impõe, de forma genérica, a obrigação de remunerar os titulares de direitos autorais e direitos conexos quando os conteúdos protegidos forem “utilizados” pelas plataformas.

No entanto, o PL desconsidera o interesse e a prática de uso dessas plataformas pelos próprios autores desses conteúdos, como forma de divulgarem as suas obras.

É comum que empresas e autores possuam página própria em plataformas digitais para fins da divulgação de seu próprio trabalho.

A publicação de conteúdo autoral nas plataformas permite que esses agentes compreendam e incrementem a audiência de seu conteúdo e, consequentemente, as receitas (por acessos ao link do conteúdo).

O PL 2630 apresenta uma compreensão equivocada da relação entre tais agentes e plataformas, restringindo o direito de agentes privados organizarem o seu modelo de negócio livremente e violando os princípios constitucionais da livre iniciativa (artigo 1º, IV), da livre concorrência (artigo 170, IV) e da liberdade profissional (artigo 5º, XIII).

Ao desconsiderar os diversos modelos de negócios e as respectivas formas de arrecadação de recursos dos titulares de direitos autorais, o PL 2630 acaba por desincentivar o compartilhamento de conteúdo autoral, contrariando o objetivo da lei.

O PL 2630 viola a livre iniciativa, a livre concorrência e a liberdade profissional dos titulares de direitos autorais e conexos.

Isso reforça o fato de que a proposta desviou seu objeto final, em relação ao originalmente proposto – que seria o combate à desinformação –, passando a abranger assuntos que ainda não estão maduros em matéria legislativa no Brasil.

O PL 2630 distorce significativamente a concorrência, ao buscar estabelecer uma espécie de controle de preços e uma uniformização de práticas comerciais relacionadas à remuneração de conteúdo protegidos pela Lei de Direitos Autorais, o que poderá acarretar um aumento excessivo de custos de transação ao regular os modelos de negociação.

Além disso, a obrigação de remunerar os titulares de direitos autorais e conexos pelo seu conteúdo imporia à plataforma a obrigação de monitorar todo conteúdo publicado, com o propósito de identificar os conteúdos possivelmente abrangidos por direitos de autor e direitos conexos, bem como os respectivos titulares com direito a remuneração.

Imunidade para agentes públicos

O PL 2630 estabelece um regime diferenciado para as contas consideradas de interesse público que é desproporcional, até mesmo se comparado à imunidade parlamentar prevista no artigo 53 da Constituição Federal (inviolabilidade civil e penal por opiniões, palavras e votos), já que a imunidade constitucional não se aplica a casos em que o agente diz ou escreve algo fora do exercício de sua função.

Esse quadro de impunidade é preocupante, diante de um cenário em que ocupantes de cargos públicos foram notoriamente responsáveis por disseminar desinformação nas redes sociais nos últimos anos.

O PL 2630 impõe às plataformas a obrigação de exibir notificação pública e fundamentada no perfil da “conta de interesse público” quando for objeto de moderação, indicando-se o fundamento para a restrição.

Essa medida viola os princípios constitucionais da livre iniciativa (artigo 1º, IV), da livre concorrência (artigo 170, IV) e da liberdade profissional (artigo 5º, XIII) das plataformas, além de contrariar princípios do MCI, que erigiu a livre iniciativa como um dos fundamentos do uso da internet no Brasil (artigo 2º, V) e garantiu a liberdade dos modelos de negócios promovidos na internet (artigo 3º, VIII), assim como o artigo 2º da Lei 13874/2019, segundo o qual a liberdade deve ser garantida no exercício das atividades econômicas e que a intervenção do Estado deve ser subsidiária e excepcional.

Por fim, o PL 2630 exige que as plataformas mantenham a identificação de todos os detentores dos cargos mencionados como de interesse público.

O PL estabelece que o órgão corregedor deverá repassar a lista de contas indicadas como institucionais às plataformas.

Contudo, não há uma obrigação de que o agente político notifique o órgão corregedor, exceto se possuir mais de uma conta.

Também não há uma obrigação de que o órgão corregedor deverá fazer uma busca ativa em redes sociais para identificar todas as contas institucionais. Fica, portanto, uma lacuna de como a identificação será operacionalizada, enquanto todas as demais obrigações continuarão vigentes.

Ainda, o PL 2630 estabelece que outras contas (que não as que sejam originalmente consideradas institucionais ou representem oficialmente o agente ou servidor) poderão ser também consideradas institucionais, caso contenham manifestações oficiais próprias.

Contudo, não fica claro quem realizará esse “monitoramento” para identificar tal ocorrência.

Dever de guarda de qualquer dado ou informação que possa constituir prova

O PL 2630 impõe às plataformas o dever de guardar qualquer dado ou informação que possa constituir prova.

Por ser excessivamente ampla e genérica, essa previsão abre margem para que as plataformas armazenem qualquer tipo de informação de usuários na internet – afinal, qualquer informação tem o potencial de constituir prova em investigações futuras.

Isso viola frontalmente a privacidade e o anonimato na internet, nos termos do artigo 5, XI, da CF, em razão do risco de quebra de sigilo da conta e de dados indiscriminados.

A indefinição e a ampla gama de dados que poderiam ser armazenados ou utilizados, sem que haja especificação pela lei ou por autoridade pública, viola o princípio da necessidade, estabelecido pelo artigo 6º, III da LGPD, segundo o qual as entidades devem limitar o tratamento de dados pessoais ao mínimo necessário para a realização de suas finalidades, com abrangência dos dados pertinentes, proporcionais e não excessivos em relação às referidas finalidades. Além disso, viola o devido processo legal (artigo 5º, LIV da CF) e causa insegurança jurídica (o artigo 5º, XXXVI da CF), tanto para os usuários, que sofrem risco de uso indevido de dados pessoais, quanto para as plataformas, que terão a obrigação (e, novamente, o poder) de definir quais serão os dados de armazenamento necessário.

O artigo 158-A do Código de Processo Penal estabelece, claramente, que o responsável pela preservação da cadeia de custódia – ou seja, pela preservação das etapas de rastreamento de um vestígio para produção de prova – é, exclusivamente, o agente público, e não as plataformas de internet.

O PL não determina que a obrigação de guarda de dados aplica-se unicamente a conteúdos tornados públicos – o que viola, também, a garantia constitucional do sigilo das comunicações (artigo 5º, XII da CF).

O PL viola toda a sistemática prevista no MCI para resguardar o acesso aos dados de usuários, pois obriga as plataformas a fornecerem dados de usuários (não especificados) mediante mera requisição de autoridade competente.

Isso significa que as plataformas poderão ser obrigadas a fornecer dados, incluindo desde comentários em vídeos até dados pessoais sensíveis mediante mero requerimento administrativo, sem que o PL sequer determine um meio específico para a transmissão desses dados às autoridades.

Dessa forma, a Comissão da OAB SP manifesta sua preocupação quanto ao escopo extremamente ampliado do PL.

 

Comissão de Privacidade, Proteção de Dados e Inteligência Artificial da OAB SP