A proposta de Digital Services Act (DSA) da Comissão Europeia, publicada pouco antes do Natal do ano passado, apresenta uma série de obrigações harmonizadas para serviços digitais, com destaque para plataformas online de grande porte. Este regulamento visa promover a transparência e a responsabilidade nos provedores de serviços intermediários, especialmente aqueles que atuam como gatekeepers da informação. Dentre as novidades, a DSA destaca a proteção da liberdade de expressão, diferenciando-se da Diretiva de Comércio Eletrônico.
Proteção da Liberdade de Expressão como Prioridade
Ao contrário da Diretiva de Comércio Eletrônico, a DSA coloca a proteção da liberdade de expressão em seu núcleo, evitando definir claramente o conteúdo prejudicial. A ilegalidade do conteúdo, conforme a DSA, é restrita a informações em desacordo com a legislação da União ou de um Estado-Membro. Essa abordagem evita riscos para a liberdade de expressão, deixando a categorização de conteúdo prejudicial à discrição dos provedores de serviços intermediários.
Práticas de Moderação de Conteúdo e Desafios
As práticas de moderação de conteúdo adotadas por provedores intermediários, como redes sociais, são regidas por suas próprias Diretrizes Comunitárias e Termos de Uso (CG e ToU). A DSA estabelece requisitos para esses termos, exigindo transparência sobre os procedimentos, medidas e ferramentas utilizadas na moderação de conteúdo. No entanto, a falta de orientação específica da DSA sobre conteúdo prejudicial concede considerável autonomia aos provedores, impactando a liberdade de expressão online.
Análise Comparativa das CGs e ToUs de Plataformas de Grande Porte
Para avaliar a conformidade das CGs e ToUs das plataformas online de grande porte com os requisitos da DSA, examinamos as políticas de seis conhecidas: YouTube, Twitter, Snapchat, Instagram, TikTok e Facebook. Concentramo-nos em quatro categorias de conteúdo problemático: nudez, desinformação, suicídio e autolesão, e ataques baseados em atributos protegidos (discurso de ódio).
Descobertas Significativas
-
Falta de Definições Claras em Algumas Plataformas:
- Algumas plataformas não oferecem definições claras para certas categorias de conteúdo, dificultando a identificação do que se enquadra em uma categoria específica.
-
Divergências nas Exceções às Restrições de Conteúdo:
- As plataformas diferem na abordagem às exceções para restrições de conteúdo. Enquanto algumas não permitem exceções para desinformação, outras reconhecem a possibilidade de exceções socialmente relevantes, científicas ou artísticas.
-
Falta de Clareza sobre Tipos de Fiscalização:
- Muitas vezes, não está claro qual tipo de fiscalização é utilizado em situações específicas. A falta de detalhes nas CGs e ToUs pode resultar em práticas de moderação percebidas como inesperadas pelos usuários.
Conclusão e Próximos Passos
Esta análise inicial revela divergências nas regras das plataformas. A DSA, ao definir apenas o conteúdo ilegal, deixa espaço para a interpretação das plataformas em relação ao conteúdo prejudicial. A falta de clareza sobre as categorias de conteúdo e os procedimentos de moderação pode impactar negativamente a liberdade de expressão. Na próxima postagem, examinaremos se essas diferenças nas regras de moderação de conteúdo se refletem na prática, analisando as ações tomadas pelas plataformas em eventos recentes envolvendo o ex-presidente Trump e a teoria da conspiração sobre a covid-19, conhecida como 'Plandemic'. Fique atento para ver a teoria colocada em prática na segunda parte desta série de blogs.
Por Britt van den Branden, Sophie Davidse e Eva Smit, estudantes do mestrado de pesquisa em direito da informação na IViR e no "Glushko & Samuelson Information Law and Policy Lab" (ILPLab). Este projeto de pesquisa em parceria com a DSA Observatory e a agência de direitos de dados AWO.
sobre a proposta de DSA e suas implicações nas plataformas online.