segunda-feira, 15 de abril de 2024

Regulação das redes sociais na Europa é referência para debate no Brasil em meio a recuo de projeto na Câmara.

 
Moderação de conteúdo e responsabilização de plataformas, previstas 
pelo bloco de países, estão em discussão entre deputados federais no país.

Preterido no Congresso, o texto do projeto de lei 2630, o PL das Redes Sociais, que busca regular as plataformas digitais no Brasil, incorporou, ao longo de sua tramitação na Câmara, inciada em 2020, pontos previstos na legislação da União Europeia (UE). O modelo pioneiro do bloco se tornou referência global para a criação de normas voltadas para as big techs e deve continuar a direcionar as discussões do Legislativo brasileiro, mesmo após o debate dar um passo atrás esta semana, e voltar a ser analisado por um grupo de trabalho por decisão do presidente da Casa, Arthur Lira (PP-AL). O chamado Regulamento para Serviços Digitais (Digital Services Act ou DSA) entrou em vigor em 2022 na União Europeia e já levou a abertura de investigações contra plataformas. A primeira, iniciada no fim de 2023, mira a disseminação de conteúdo ilegal relacionado aos ataques terroristas do grupo Hamas a Israel na rede X (ex-Twitter), do empresário Elon Musk, pivô da recente crise com o Supremo Tribunal Federal (STF). A segunda avalia se a empresa chinesa TikTok infringiu as normas do bloco de países.

A criação de regras para moderação de conteúdo é um dos principais pontos em comum entre o DSA e o PL brasileiro. Nos artigos de 16 a 23, a normativa europeia exige que as empresas disponibilizem mecanismos de fácil acesso para que usuários indiquem conteúdos que considerem ser ilegais. Neste caso, as plataformas devem tomar medidas contra sua utilização abusiva, por exemplo suspendendo usuários que forneçam com frequência conteúdos manifestamente ilegais.

No DSA, grandes plataformas possuem deveres adicionais, em comparação com os provedores em geral, relacionados com o dever de transparência. Devem, por exemplo, elaborar análises anuais de risco, com aplicação de medidas de mitigação, além de realizar auditorias privadas e publicação anual de relatórios de transparência e com os resultados das avaliações de risco e das medidas adotadas. Já a última redação do texto do PL brasileiro é aplicável a redes sociais, ferramentas de busca e aplicativos de mensagens instantâneas com mais de 10 milhões de usuários mensais no país e prevê a necessidade de criar mecanismos de notificação a usuários que disseminem conteúdo que viole as regras do texto. Também exige que as redes publiquem relatórios de transparência e uma espécie de “dever de cuidado”, em que as empresas precisam estar alertas e atuar contra “riscos sistêmicos”, entre eles ameaças à liberdade de expressão, vigência do Estado democrático e direitos das minorias.— Embora haja diferenças significativas entre as duas propostas, ambas têm em comum a intenção de estabelecer regras claras para a proteção dos direitos dos usuários e para a responsabilização das plataformas — explica Ricardo Campos, professor da Faculdade de Direito da Goethe Universität (Alemanha).

Diferenças nos textos.
Uma diferença entre as duas propostas é que o DSA europeu é mais abrangente e inclui uma gama maior de plataformas, como as de serviços simples de transporte e motores de pesquisa online. Outro ponto é que a normativa europeia prevê que as empresas sejam monitoradas pelos estados membros por meio de um regulador independente, os chamados Coordenadores de Serviços Digitais. Eles são o primeiro contato ao qual têm acesso os usuários que decidem fazer queixas sobre supostas infrações do regulamento. Os coordenadores certificarão se as infrações procedem, informarão sobre mecanismos de apelação extrajudicial, e terão poder de investigar e fiscalizar.

No projeto de lei brasileiro não há dispositivo semelhante. A criação de um órgão regulador foi um dos entraves para o avanço do texto. O texto prevê que o Comitê Gestor da Internet (CGI) seja responsável por apresentar diretrizes, mas não confere ao órgão a atribuição de aplicar sanções. Outro ponto de divergência é que, enquanto texto brasileiro não abordava inteligência artificial, o DSA determina que as plataformas devem compartilhar com os reguladores europeus, entre outras coisas, de que maneira utilizam as ferramentas de IA disponíveis. O tema é discutido no Brasil em outro projeto, em tramitação no Senado.

Convergências e divergências.
·Moderação e transparência: Ambos os textos estabelecem que as plataformas digitais atuem contra riscos sistêmicos a seus usuários em relação a conteúdos ilegais. Também obrigam big techs a publicar relatórios de transparência sobre suas atividades de moderação e outros temas.
·Órgão regulador e IA: Enquanto a legislação aprovada na União Europeia criou um órgão regulador para aplicar punições e exige que informem como utilizam as ferramentas de IA disponíveis, projeto brasileiro não trazia normas semelhantes.

https://oglobo.globo.com

Nenhum comentário:

Postar um comentário