Especialistas debateram a responsabilidade e o poder dos provedores de aplicação na moderação de conteúdos

0
1

Direitos do Cidadão
13 de Maio de 2022 às 15h30

Especialistas debateram a responsabilidade e o poder dos provedores de aplicação na moderação de conteúdos

Disponível no Canal do MPF no YouTube, esse foi o terceiro webinário de um ciclo voltado à discussão da violência on-line

Participantes do webinário promovido no âmbito do Projeto Encontros da Cidadania


Print de tela de videoconferência

Até que ponto as redes sociais, como Facebook, Instagram e Twitter, devem ser responsáveis pela moderação dos conteúdos que seus usuários produzem? Essa foi uma das principais questões discutidas ao longo do webinário realizado, nesta quinta-feira (12), pela Procuradoria Federal dos Direitos do Cidadão (PFDC), no âmbito do Projeto Encontros da Cidadania.

Transmitido pelo Canal do MPF no YouTube, o evento contou com a abertura do procurador federal dos Direitos do Cidadão, Carlos Alberto Vilhena. Na ocasião, ele lembrou que o assunto ganhou ainda mais projeção por conta da recente aquisição do Twitter pelo empresário Elon Musk, pela vultosa quantia de 44 bilhões de dólares. Uma das primeiras modificações que o bilionário sul-africano, defensor da liberdade de expressão sem limites, pretende realizar na plataforma é a redução ou até mesmo a eliminação total da moderação dos conteúdos. 

Vilhena observou que, dado o enorme volume de informações que circula na Internet, a ausência de limites à liberdade de expressão pode trazer resultados desastrosos. “Com cifras continentais, é inegável o potencial desses aplicativos em afetar o debate público, seja para o bem ou seja para o mal”. Nesse contexto, considera muito perigoso deixar essa moderação a cargo apenas de um pequeno grupo diretor dessas organizações, sem a participação do poder público. “O poder concentrado na mão dessas pessoas é muito grande, suficiente para destruir reputações, influenciar eleições, ou iniciar conflitos. Tamanho poder deveria trazer consigo equivalentes responsabilidades”.

O presidente da SaferNet Brasil, Thiago Tavares, iniciou sua exposição traçando o conceito de moderação de conteúdo: “É a prática de monitorar e aplicar um conjunto pré-determinado de regras e diretrizes ao conteúdo gerado pelo usuário, a fim de determinar se aquela comunicação é abusiva ou não”. Lembrou que, nesse contexto de circulação de um volume gigantesco de informações, é impossível que seja realizada apenas por humanos. “Essa moderação precisa ser automatizada em boa parte”. 

De acordo com Tavares, no entanto, deve-se tomar o cuidado para que um excesso nessa automação não gere uma quantidade muito grande de falsos-positivos e acabe removendo conteúdos legítimos e, em consequência,  prejudicando a liberdade de expressão. Apresentou como exemplo casos em que houve remoção automática de fotos de indígenas, mães amamentando ou obras-de-arte, sob a alegação de violar a política de uso da rede social ao apresentar nudez. “Ela precisa ser uma política dinâmica para se adequar ao contexto local, aos contextos culturais, também à evolução do entendimento do que é aceitável ou não, e à evolução da própria tecnologia”.   

Outro aspecto que, segundo ele, pode acentuar essas falhas de avaliação é a difundida prática do outsourcing, no qual o conteúdo gerado por redes sociais de um país muitas vezes é moderado por empresas terceirizadas em outros países. O resultado é uma moderação que, na maioria das vezes, não vai considerar de maneira adequada o contexto cultural e social do local onde a informação é produzida.  

Para a moderadora do evento, procuradora da República Priscila Schreiner, é necessário enxergar a moderação não como uma forma de limitação, mas como um equilíbrio: “equilibrar os interesses e os direitos que aparecem na Internet, que aparecem na nossa vida”.

O procurador da República George Loedder, debatedor do evento, traçou uma comparação entre dois modelos de moderação e levantou a questão sobre qual seria o adotado no Brasil. No modelo americano, os próprios provedores são responsáveis por fazer a exclusão de conteúdos inadequados, não podendo ser responsabilizados pelos autores. No modelo alemão, por outro lado, os provedores têm a obrigação de retirar o conteúdo em até 24 horas após serem notificados, caso contrário recebem uma multa considerável. 

No Brasil, o procurador nota que não há uma definição precisa de qual caminho a legislação seguiu. “O Marco Civil da Internet está mais para Estados Unidos (…) o provedor só será responsável se houver um ordem judicial determinando a remoção de conteúdo e ele não cumprir”. No entanto, citou algumas tentativas em direção ao modelo alemão, como a MP 1608/21, que  estabeleceu uma série de hipóteses em que o conteúdo obrigatoriamente deve ser retirado. 

Para assistir o evento completo, acesse: https://www.youtube.com/watch?v=yPtWMnXekqI&t=5103s

Próximo evento – A diretora do Programa de Políticas Educativas do Instituto Auschwitz para a Prevenção do Genocídio e Atrocidades Massivas, Clara Ramírez Barat, será a expositora no webinário intitulado “Prevenção ao discurso de ódio”, marcado para o dia 19 de maio, às 10h. Participará, como debatedor, o procurador regional da República Paulo Leivas. O coordenador do GT “Educação e Direitos Humanos”, o procurador da República Felipe de Moura Palha e Silva, será o moderador. As inscrições estão abertas na Plataforma Sympla. 

Assessoria de Comunicação e Informação
Procuradoria Federal dos Direitos do Cidadão (PFDC)
Ministério Público Federal
(61) 99319-4359
http://www.mpf.mp.br/pfdc
twitter.com/pfdc_mpf



Fonte MPF