Entenda em 9 pontos a mudança anunciada para Facebook, Instagram e Threads


A Meta anunciou nesta terça-feira (7) um conjunto de mudanças em suas práticas de moderação de conteúdo que devem pôr fim ao seu programa de checagem de fatos estabelecido em 2016 para conter a disseminação de desinformação em seus aplicativos.

Em vídeo publicado em sua conta no Instagram, o CEO da empresa, Mark Zuckerberg, também atacou “decisões secretas” de tribunais latino-americanos. Sem citar o STF explicitamente, Zuckerberg diz que governo americano precisa ajudar a combater o que está sendo feito pelo Judiciário na região.

  • PARA QUE REDES SOCIAIS VALEM AS MUDANÇAS?

Para as redes Facebook, Instagram e Threads.

  • O QUE FOI ANUNCIADO POR ZUCKERBERG?

O CEO da Meta anunciou em seu discurso (na íntegra) seis medidas:

  1. Eliminar os fact-checkers e os trocar por notas de comunidade, semelhantes às da rede social X;
  2. Simplificar políticas de conteúdo e eliminar várias restrições sobre temas como imigração e gênero;
  3. Mudar os filtros que escaneavam qualquer violação de política de conteúdo permitido. Os filtros devem apontar “violações ilegais e de alta gravidade”. Para violações de “baixa gravidade,” uma ação só será tomada após denúncia de problemas;
  4. Retomar o que chamou de conteúdo cívico: postagens e discussões relacionadas a política, governo, eleições e questões de interesse público que frequentemente geram debates nas redes sociais;
  5. Transferir da Califórnia para o Texas as equipes de confiança e segurança e moderação de conteúdo;
  6. Trabalhar com o presidente Trump para resistir a governos ao redor do mundo que tentam regular as big techs nas palavras do CEO da Meta, tais governos “perseguem empresas americanas e pressionam por mais censura”
  • AS MUDANÇAS JÁ VALEM PARA O BRASIL?

As alterações começaram a valer nos Estados Unidos na terça-feira (7) e, segundo texto assinado pelo vice-presidente de assuntos globais da Meta, Joel Kaplan, serão expandidas para outros países.

De acordo com posicionamento da diretora do IFCN, Angie Holan, publicado no X (ex-Twitter), as parceiras americanas da big tech receberam a informação do fim do programa poucos minutos antes de o CEO da Meta, Mark Zuckerberg, publicar o vídeo sobre as mudanças na política de moderação.

A agência brasileira Lupa, uma das primeiras a fazer parceria com a Meta, diz que não recebeu informações sobre o fim do 3FCP no Brasil e vai continuar cumprindo o contrato que mantém com o conglomerado de redes sociais.

O Facebook possui um programa de checagem de fatos em mais de 26 idiomas que remunera mais de 80 organizações de mídia em todo o mundo para usar suas verificações de fatos em suas plataformas, como WhatsApp e Instagram.

  • O QUE FAZEM OS CHECADORES?

Segundo Natália Leal, CEO da Lupa, o papel dos checadores é priorizar “assuntos que viralizem e coloquem em risco a saúde pública, como publicações relacionadas à vacinação durante a pandemia, ou que ameacem instituições ou a própria democracia, como ocorreu no caso das urnas eletrônicas”.

Em entrevista à Folha, ela diz que a decisão sobre retirar ou não conteúdo do ar é responsabilidade da Meta. “O que fazemos é indicar se um conteúdo é falso”, diz. A big tech, então, decide o que remove ou bloqueia, de acordo com as diretrizes da comunidades. “A Meta nem nos avisa o que faz”, diz Leal.

As agências consideram três princípios: quem fala, o que está sendo falado e qual é o alcance dessa fala. Todas as parceiras da Meta no chamado 3FCP (Third-party Fact-Checking Program) eram signatárias dos termos do IFCN (Internacional Fact-Checking Network), entidade que atesta o apartidarismo e o rigor metodológico dos associados.

  • COMO FUNCIONAM AS NOTAS DE COMUNIDADE, QUE SUBSTITUIRÃO OS CHECADORES?

O trabalho de identificar potenciais violações às normas da Meta passará a ficar sob responsabilidade dos usuários, em um modelo de notas da comunidade, similar ao que Elon Musk implementou no X (ex-Twitter).

As notas são propostas e redigidas por usuários voluntários, que precisam se inscrever previamente, e não são editadas pelas equipes do X. Outros usuários depois avaliam se o conteúdo é útil e, se o comentário tiver votos o suficiente, passa a aparecer abaixo da publicação sob dúvidas.

Segundo o X em seu site oficial, as avaliações “levam em conta não apenas o número de colaboradores que classificaram uma publicação como útil ou inútil, mas também se as pessoas que a avaliaram parecem pertencer a diferentes esferas”. O princípio é semelhante ao da Wikipédia.

A Meta informou que os usuários poderão começar a se inscrever a partir de segunda-feira para escrever notas assim que o programa for lançado, mas não forneceu detalhes sobre os critérios de participação.

  • AS AVALIAÇÕES SÃO EFICAZES CONTRA A DESINFORMAÇÃO?

Pesquisadores mostraram que as notas de contexto “reduzem a disseminação de desinformação em cerca de 20%” no X, disse à AFP Christine Balagué, professora do Instituto Mines-Télécom e fundadora da rede de pesquisa “Good in Tech”.

O risco é que a verificação depende da multidão, segundo ela. “A multidão pode dizer o certo, mas também pode haver pessoas mal-intencionadas que estão ali para disseminar informações erradas”, alerta.

Lionel Kaplan, presidente da agência de criação de conteúdos em redes sociais Dicenda, considera que as avaliações permitem processar um maior volume de informações do que o fact-checking, que é “complicado de aplicar”. Também destaca o funcionamento “democrático”, que permite “ter e confrontar diferentes pontos de vista”.

O X, no entanto, é frequentemente acusado de permitir a difusão de informações falsas desde que Musk reduziu drasticamente as equipes de moderação. Segundo Kaplan, isso se deve principalmente ao fato de que “o X incentiva o radicalismo”, tornando os conteúdos falsos mais visíveis do que em outras plataformas.

  • O QUE MUDA NA POLÍTICA DE CONTEÚDO?

A atualização nas diretrizes da Meta eliminam “regras excessivamente restritivas sobre temas como imigração e identidade de gênero, que frequentemente são objeto de debate político”, afirmou em comunicado o novo diretor de assuntos globais da empresa, Joel Kaplan.

A nova versão das diretrizes aparece na versão em inglês americano das regras da Meta e vale para Facebook, Instagram e Threads. Não houve mudança na tradução em português, porém a própria empresa informa que “a versão em inglês dos EUA dos Padrões da Comunidade reflete o conjunto mais atualizado de políticas e deve ser usada como o documento principal”.

A empresa passará a permitir:

  1. Conteúdo que relacione doença mental ou anormalidade com base em gênero ou orientação sexual, considerando o discurso político e religioso sobre transexualidade e homossexualidade;
  2. Conteúdo direcionado a pessoas com base em suas “características protegidas”, como raça, etnia e identidade de gênero, quando combinado com “alegações de que essas pessoas têm ou espalham o coronavírus”. Sem essa provisão, agora pode ser permitido, por exemplo, acusar chineses de serem responsáveis pela pandemia de Covid-19, segundo a Wired;
  3. Conteúdo que defenda “limitações baseadas em gênero para trabalhos militares, policiais e de ensino. Também permitimos o mesmo tipo de conteúdo baseado em orientação sexual, quando se baseia em crenças religiosas”. Isso pode abrir espaço a posts que argumentem, por exemplo, que mulheres não deveriam ser permitidas no serviço militar ou que homens não deveriam ensinar matemática por causa de seu gênero, analisa a Wired;
  4. Conteúdo que questione “o acesso a espaços frequentemente limitados por sexo ou gênero, como banheiros, escolas específicas, papéis específicos no Exército, polícia ou ensino, e grupos de saúde ou suporte”;
  5. A Meta ainda proíbe conteúdo que possa “incitar violência iminente ou intimidação”, mas alterou trecho do texto que dizia que discursos de ódio podem “promover violência offline”.

Procurada pela reportagem, a empresa não respondeu se irá incluir a mudança também nas diretrizes em português. Em 2019, o Supremo Tribunal Federal enquadrou a homofobia e a transfobia na lei dos crimes de racismo até que o Congresso Nacional aprove uma legislação sobre o tema.

Questionado se a Meta poderia ter problemas com a Justiça brasileira por homofobia ou transfobia, o advogado Renato Opice Blum, especialista em crimes digitais, afirma que “esse é o típico caso que irá para o Judiciário decidir”. “A lei se sobrepõe à política.”

Os usuários da União Europeia podem enviar um pedido judicial para remoção de conteúdo que violem leis locais sobre discurso de ódio. Não há menções à legislação brasileira.

  • O QUE AINDA É PROIBIDO NA POLÍTICA DE CONTEÚDO DA META?

A versão atual da política continua proibindo:

  1. Negar o Holocausto;
  2. Usar blackface;
  3. Insinuações sobre pessoas judias controlando a mídia;
  4. Comparar pessoas negras a “equipamentos agrícolas”, proibição que foi adicionada ao texto nesta nova versão;
  5. Ataques de “Nível 1” ou “mais severos”, contra migrantes, imigrantes e solicitantes de asilo;
  6. Chamar imigrantes, bem como pessoas pertencentes a grupos de “características protegidas,” de insetos, animais, patógenos ou “outras formas de vida sub-humanas”;
    – afirmar que imigrantes são criminosos ou imorais.

A Meta também manteve sua lista anterior de características protegidas, que incluem raça, etnia, origem nacional, deficiência, afiliação religiosa, casta, orientação sexual, sexo, identidade de gênero e doenças graves.

  • QUE TIPO DE ‘RESISTÊNCIA’ A GOVERNOS ESTRANGEIROS É DEFENDIDA PELA META?

Segundo analistas, o discurso de Zuckerberg indique que a big tech atuará de modo mais veemente contra iniciativas de regulação das plataformas globalmente.

O dono da Meta citou a Europa e “tribunais da América Latina”, no que foi lido como uma referência ao STF (Supremo Tribunal Federal), onde há iniciativas para ampliar obrigações das empresas.

Além de ter determinado uma série de ordens de remoção de conteúdo e de perfis nos últimos anos, a corte brasileira começou a julgar em novembro do ano passado duas ações que podem aumentar a responsabilidade das plataformas.

Até o momento, três ministros votaram, apresentando teses que, se aprovadas, na prática implementariam uma regulação das redes no Brasil.

A atuação do tribunal se dá após empacarem no Congresso tentativas de aumentar os deveres da plataformas no Brasil, como no chamado PL das Fake News. Sob lobby das empresas e resistência de políticos bolsonaristas, que buscaram colar à proposta a pecha de censura, o projeto não avançou.



Fonte: TNH1