Após pedido do relator, Lira adia votação do PL das Fake News

Decisão acompanha posição da maioria dos líderes partidários; relator Orlando Silva pede mais tempo para analisar sugestões de parlamentares

Marcos Mortari

O presidente da Câmara dos Deputados, Arthur Lira (PP-AL), durante sessão plenária (Marina Ramos/Câmara dos Deputados).

Publicidade

O presidente da Câmara dos Deputados decidiu, nesta terça-feira (2), adiar a votação do projeto de lei das Fake News (PL 2.630/2020). O movimento ocorreu a pedido do relator da matéria, o deputado Orlando Silva (PCdoB-SP), que pediu mais tempo para considerar sugestões de mudança no texto apresentadas por parlamentares, e após a anuência da maioria dos líderes partidários.

“Ouvindo atentamente o pedido do relator – que para mim já é suficiente –, e os líderes, que na sua maioria encaminham por uma saída da manutenção do diálogo, o projeto não será votado na noite de hoje”, afirmou.

Apesar de ter sido uma demanda da bancada do Partido Liberal (PL), sigla do ex-presidente Jair Bolsonaro e que tem manifestado críticas ao texto, Lira não definiu uma nova data para votação da matéria considerada polêmica.

Continua depois da publicidade

PP, Republicanos, PT, PDT, Psol, PCdoB e Patriota concordaram com o adiamento, contra os votos do PL e do Novo.

O líder do PP, deputado André Fufuca (MA), afirmou que os deputados também precisam de tempo para analisar o texto de Orlando Silva. “É de conhecimento de todos que fica inviável a votação dessa matéria. O relator recebeu mais de 90 emendas para um projeto que muitos não conhecem o texto”, disse.

O líder do Republicanos, deputado Hugo Motta (PB), afirmou que a discussão da proposta acabou contaminada pela polarização e “por narrativas”.

Continua depois da publicidade

A deputada Adriana Ventura (Novo-SP) afirmou que o adiamento comprova a necessidade de criação de uma comissão especial para analisar o tema, como defendia sua sigla desde o início da tramitação da matéria.

Orlando Silva pediu mais tempo para ajustar o texto depois de se reunir com líderes partidários. “Não tivemos tempo para examinar todas as sugestões”, disse o relator, que pretende apresentar novo parecer.

“Vamos consolidar a incorporação de todas as sugestões feitas de modo que possamos ter uma posição que unifique o Plenário da Câmara dos Deputados num movimento de combater desinformação, garantir liberdade de expressão, responsabilidade para as plataformas e transparência na internet”, afirmou.

Continua depois da publicidade

A deputada Fernanda Melchionna (Psol-RS) também defendeu o adiamento da votação em busca de consenso. “Temos um desafio social de unificar todos que sabem da necessidade de garantir transparência, liberdade de expressão para o usuário, mas combater os crimes e a desinformação que custam vidas”, disse.

Controvérsia

Segundo o relator, um dos pontos controversos é a fiscalização do cumprimento da lei. “Especulamos hoje durante todo o dia sobre alguns caminhos alternativos para que a lei tenha um mecanismo de fiscalização que garanta seu cumprimento, aplicando inclusive sanções”, explicou.

A redação original previa a criação de uma entidade autônoma para fiscalização, enquanto a última versão deixou esse ponto para regulamentação futura.

Continua depois da publicidade

O deputado Carlos Veras (PT-PE) destacou que o Parlamento não pode deixar de regulamentar o tema. “Este Congresso tem responsabilidade, e eu não tenho dúvida de que isso não vai faltar. Nós não vamos faltar com a sociedade e com o povo brasileiro. É urgente dar um basta na irresponsabilidade que têm tido as plataformas com a vida do brasileiro”, disse.

Obstrução

A discussão da proposta dominou os pronunciamentos em Plenário e as negociações políticas desta terça-feira (2). Contrario ao texto, o PL apresentou requerimentos para obstruir a votação. Republicanos, Novo, PSDB e Cidadania também anunciaram voto contrário à proposta nesta terça-feira.

A deputada Bia Kicis (PL-DF) afirmou que a proposta vai levar à perseguição política nas redes. “Aprovar esse projeto é legitimar a perseguição, a censura e o rompimento com o devido processo legal. E nós não podemos fazer isso”, disse.

Continua depois da publicidade

O deputado Gustavo Gayer (PL-GO) pediu que o texto seja rejeitado. “Escutem o clamor das pessoas que estão, talvez pela última vez, usando as redes sociais e pedindo socorro. Se isso aqui passar, o efeito vai ser contrário. Nós jogaremos os nossos filhos para a deep web, aquela parte obscura da internet, porque eles terão medo de usar a internet padrão”, disse.

Para o deputado Messias Donato (Republicanos-ES), a proposta vai limitar a liberdade dos cidadãos. “Quando falamos sobre liberdade, não falamos sobre posicionamento político ou ideológico, falamos sobre defender uma conquista que obtivemos há séculos, mas que ainda hoje, em pleno ano de 2023, há quem queira tomá-la”, disse.

Entenda o projeto

A proposta cria a chamada Lei Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet e estabelece obrigações a serem seguidas por redes sociais, aplicativos de mensagens e ferramentas de busca na sinalização e retirada de contas e conteúdos considerados criminosos.

Pelo texto, os provedores (considerados aplicações de redes sociais, ferramentas de busca ou mensageria instantânea) poderão ser responsabilizados civilmente “pela reparação dos danos causados por conteúdos gerados por terceiros cuja distribuição tenha sido realizada por meio de publicidade de plataforma” e “por danos decorrentes de conteúdos gerados por terceiros quando houver descumprimento das obrigações de dever de cuidado” previstas.

As big techs também são obrigadas a identificar, analisar e avaliar diligentemente os riscos sistêmicos decorrentes da concepção ou do funcionamento dos seus serviços e dos seus sistemas relacionados, incluindo os sistemas algorítmicos. A avaliação deve ser feita anualmente ou na introdução de funcionalidades suscetíveis de terem “impacto crítico”.

Dentre os riscos estão a difusão de conteúdos ilícitos, afronta à garantia e promoção do direito à liberdade de expressão, de informação e de imprensa e ao pluralismo dos meios de comunicação social, ao Estado democrático de direito e à higidez do processo eleitoral. Além da disseminação de informações que ofereçam riscos relativos “à violência contra a mulher, ao racismo, à proteção da saúde pública, a crianças e adolescentes, idosos” e aquelas com consequências negativas graves para o bem-estar físico e mental.

Nestes casos, as companhias precisarão adotar medidas de atenuação “proporcionais e eficazes”, incluindo processos de moderação de conteúdos quando necessário, com rapidez e qualidade de processamento de notificações e eventuais remoções de conteúdos.

Também entra na lista de obrigações “testar e adaptar os sistemas algorítmicos, incluindo os sistemas de priorização e recomendação, de publicidade de plataforma” e a adoção de medidas para proteger os direitos de crianças e adolescentes, incluindo o aprimoramento dos sistemas de verificação de idade.

Conforme o projeto, as big techs precisarão atuar diligentemente para “prevenir e mitigar práticas ilícitas”, como a disseminação de conteúdos ilegais gerados por terceiros que possam configurar algum dos crimes destacados anteriormente.

Uma vez em vigor a nova regra, as empresas terão que disponibilizar de forma clara e acessível termos de uso com explicações sobre as principais características dos serviços, tipos de conteúdo proibidos, informações sobre o procedimento de notificação e recurso, serviços de publicidade, descrição geral dos algoritmos utilizados (com principais parâmetros que determinam a recomendação ou direcionamento de conteúdo ao usuário), ressalvados os segredos comercial e industrial.

Também será necessário oferecer destaque para os principais parâmetros que determinam a recomendação ou direcionamento de conteúdo ao usuário e opções aos usuários para modificá-los. Tais parâmetros precisarão “ser capazes de explicar o motivo de certos conteúdos serem sugeridos ao usuário, incluir critérios relevantes para determinação das recomendações ou direcionamentos e como eles são balanceados entre si”.

Os provedores que utilizem dados pessoais para perfilamento com fins de recomendação de conteúdos deverão oferecer a exibição de conteúdos não selecionados a partir de tais técnicas e criar mecanismos acessíveis para que o usuário possa optar entre diferentes formas de exibição, gestão e direcionamento de conteúdos na plataforma. Conteúdos recomendados devem ser diferenciados de forma clara daqueles selecionados pelo próprio usuário.

O texto estabelece, ainda, que as empresas, por padrão, demandem ação humana e consentimento dos usuários para ativação de reprodução automatizada de conteúdos, salvo conteúdos musicais e listas de reprodução criadas pelo próprio usuário.

Pela regra, as companhias precisarão produzir relatórios semestrais de transparência, disponibilizados em seus próprios sites, para informar sobre procedimentos de moderação de conteúdo. Os materiais deverão conter informações qualitativas, incluindo o detalhamento dos procedimentos de moderação de contas e de conteúdos adotados, ações implementadas para enfrentar atividades ilegais, mudanças significativas nos termos de uso e sistemas de recomendação e dados sobre as equipes responsáveis por aplicação dos termos de uso.

O provedor terá de realizar e publicar anualmente auditoria externa e independente para avaliação do cumprimento das normas estabelecidas pela nova legislação, abordando aspectos como eficiência no atendimento das obrigações de análise e atenuação de riscos sistêmicos, impactos da moderação de conteúdo, inexistência de vieses nas decisões e impacto dos algoritmos na visibilidade, recomendação e ordenação de conteúdos jornalísticos.

Os provedores também devem viabilizar o acesso gratuito de instituição científica, tecnológica e de inovação a dados desagregados, inclusive por meio de interface de programação de aplicações, para finalidade de pesquisa acadêmica. Isso inclui algoritmos usados na moderação de contas e de conteúdos, priorização, segmentação, recomendação e exibição de conteúdo, publicidade de plataforma e impulsionamento, e dados suficientes sobre como eles afetam o conteúdo visualizado pelos usuários.

No caso de exibição de material publicitário, os provedores precisarão oferecer informações sobre os principais parâmetros utilizados para determinar o destinatário do conteúdo e de como alterá-los. A publicidade de usuário deverá ser informada publicamente aos demais usuários.

Será obrigação da empresa provedora e das plataformas de publicidade programática apresentar informações com todo o repositório dos anúncios e conteúdos impulsionados, com a íntegra dos materiais e dados que permitam a identificação do responsável pelo pagamento e características gerais da audiência contratada.

O usuário poderá ter acesso a informações do histórico dos conteúdos publicitários com os quais teve contato nos últimos seis meses, além dos detalhes dos critérios e procedimentos utilizados para perfilamento que foram aplicados em cada caso.

Os provedores devem criar, ainda, mecanismos para ativamente impedir o uso dos serviços por crianças e adolescentes, sempre que não forem desenvolvidos para eles ou não estiverem adequados a atender Às necessidades desse público. E estarão impedidos de criarem perfis comportamentais de usuários crianças e adolescentes a partir da coleta e do tratamento de seus dados pessoais para fins de direcionamento de publicidade.

O projeto de lei também avança sobre o debate de direitos autorais ao estabelecer que seja feita remuneração aos titulares de conteúdo em quaisquer formato. Diz o texto que titulares dos conteúdos protegidos devem preferencialmente exercer seus direitos por meio de associações de gestão coletiva de direitos autorais, que negociarão com os provedores os valores a serem praticados, o modelo e prazo da remuneração.

Pela nova regra, os provedores precisariam adotar mecanismos para identificar e neutralizar a atuação de contas automatizadas que distorçam artificialmente ranqueamentos e listas de reprodução. E seriam proibidos de aumentar ou reduzir artificialmente, sem informação ao usuário, a frequência de utilização de obras ou fonogramas específicos a fim de privilegiar, nos sistemas de recomendação baseados em algoritmo, a remuneração a empresa integrante do mesmo grupo econômico, sócia, controladora ou coligada ou que tenha firmado acordo comercial com a plataforma.

Outra inovação do texto é a previsão de remuneração de empresas jornalísticas pela reprodução, em qualquer formato, de conteúdo jornalístico pelas provedoras, sem ônus ao usuário final. Há possibilidade, inclusive, de o Conselho Administrativo de Defesa Econômica (Cade) atuar para coibir eventuais infrações cometidas pelo provedor que abuse da posição dominante na negociação com as companhias jornalísticas.

A última versão do substitutivo apresentada pelo deputado Orlando Silva estabelece que contas mantidas em redes sociais indicadas como institucionais pelos integrantes da administração pública não poderão restringir a visualização de suas publicações.

Pelo texto, “decisões de provedores que constituam intervenção ativa ilícita ou abusiva em contas de interesse público autorizam o ajuizamento de ação judicial para a sua restauração, devendo o Poder Judiciário obrigar os provedores as restabelecerem, no prazo de 24 horas, nos casos em que fique comprovada a sua operação em conformidade com os direitos fundamentais e com os princípios da legalidade, impessoalidade, moralidade, publicidade e eficiência”. E a imunidade parlamentar é estendida aos conteúdos publicados por agentes públicos nas plataformas.

Em caso de publicidade contratada por entidades e órgãos da administração pública, será necessário informar o valor do contrato, dados da empresa contratada e forma de contratação, conteúdo da campanha, mecanismo de distribuição dos recursos, critérios de definição do público-alvo, lista de meios em que os recursos foram aplicados, número da aparições e valor aplicado na soma delas.

Já para os aplicativos de mensagem instantânea, o projeto de lei determina a garantia à privacidade e a limitação da distribuição massiva de conteúdos e mídias, incluindo a adoção de mecanismos para aferir consentimento prévio do usuário para inclusão em grupos de mensagens, listas de transmissão, canais de difusão de informações abertos ao público ou mecanismos equivalentes de agrupamentos de usuários – exceto em situações de emergência, estado de calamidade pública ou circunstâncias análogas.

Pela regra, uma ordem judicial, em circunstâncias definidas, poderá determinar aos provedores de mensageria instantânea que preservem e disponibilizem informações suficientes para identificar a primeira conta denunciada por outros usuários quando em causa o envio de conteúdos ilícitos.

Os provedores que ofereçam serviços de contas destinadas ao uso comercial para clientes que facilitem o disparo automatizado e em larga escala para múltiplos usuários devem desenvolver, ainda, medidas para que o serviço seja usado estritamente para finalidades institucionais ou comerciais, com identificação do remetente das mensagens.

O texto estabelece que decisões judiciais que determinarem a remoção imediata de conteúdo ilícito relacionado à prática de crimes deverão ser cumpridas pelos provedores no prazo de até 24 horas, sob pena de multa de R$ 50 mil a R$ 1 milhão por hora de descumprimento – que poderá triplicar em casos que envolvam publicidade de plataforma.

Quando o provedor tomar conhecimento de informações que levantem suspeitas do possível cometimento de crime que envolva ameaça à vida, ele deverá informar imediatamente as autoridades competentes.

Caso haja remoção de conteúdo, as empresas deverão armazenar, por 6 meses, o material publicado, os dados de acesso e endereço de protocolo de internet, incluindo as portas de origem, além de dados cadastrais, telemáticos, outros registros e informações dos usuários que possam ser usados como material probatório.

Pelo projeto, caso cometam infrações a normas estabelecidas, os provedores ficam sujeitos a punições que vão desde simples advertência com necessidade de indicação de prazo para adoção de medidas corretivas até multa de 10% do faturamento do grupo econômico no Brasil em seu último exercício, limitada a R$ 50 milhões por infração.

Nas sanções, também há possibilidade de proibição de tratamento de determinadas bases de dados e suspensão temporária das atividades. O texto estabelece critérios para a aplicação das penalidades, considerando gravidade, reincidência, cooperação do infrator e outros aspectos.

O substitutivo trata especificamente da hipótese de promoção ou financiamento da divulgação em massa de mensagens que contenham fato sabidamente inverídico que seja capaz de comprometer a higidez do processo eleitoral ou que possa causar dano à integridade física e seja passível de sanção criminal. Neste caso, a pena é de reclusão de 1 a 3 anos e multa.

(com Agência Câmara)

Marcos Mortari

Responsável pela cobertura de política do InfoMoney, coordena o levantamento Barômetro do Poder, apresenta o programa Conexão Brasília e o podcast Frequência Política.