Facebook muda regras e vai identificar “notícias falsas”

Os administradores poderão ver quais posts serão enquadrados na regra

O Facebook anunciou mudanças nas regras para as páginas dentro da plataforma. A principal delas é a identificação de publicações consideradas “notícias falsas” e que, em razão disso, têm a distribuição reduzida. Os administradores das páginas poderão ver quais mensagens foram enquadradas nesta categoria. Também terão acesso a outros conteúdos retirados por violarem as normas internas da companhia (os Parâmetros da Comunidade).

Os administradores de páginas passarão a ter acesso a uma “aba” denominada “Qualidade da Página”. Nela, ficarão listados os posts avaliados como “falsos”, “mistos” ou com “título falso”, conforme categorias definidas pela empresa. A classificação é feita por agências de checagem de fatos parceiras (conheça as regras de análise aqui). Até agora, quando uma publicação era marcada desta maneira não havia qualquer sinalização nem ao autor nem aos administradores de páginas. O autor, contudo, seguirá sem ser notificado.

A redução de alcance de conteúdos considerados “notícias falsas” vem sendo adotada pela rede social, sem remover os posts mas criando obstáculos a sua difusão. “Esperamos que isso forneça às pessoas as informações necessárias para policiar comportamentos inadequados de administradores de uma mesma página, entender melhor nossos Padrões da Comunidade e, em alguns casos, nos informar quando acreditarem que tomamos uma decisão incorreta sobre um determinado conteúdo”, afirmou a empresa em comunicado oficial. No Brasil, o Facebook estabeleceu parceria com entidades de checagem de fatos, como a Agência Lupa, aos Fatos e France Press para verificar circulação de notícias falsas durante as eleições de 2018.

Conteúdos removidos

Além das publicações classificadas como “notícias falsas”, os administradores de páginas poderão ver também os conteúdos removidos por não respeitarem as normas internas, os chamados Parâmetros da Comunidade. Entram aí mensagens enquadradas como “discurso de ódio”, “violência”, “conteúdo explícito”, “assédio”, “bullying”, “produtos controlados”, “nudez adulta”, “atividades sexuais” e “apoio ou glorificação de indivíduos não permitidos no Facebook”.

Os posts apontados dentro dessas categorias já eram retirados, mas sem explicação. Com isso, o administrador poderá ver as publicações banidas. Segundo o anúncio do Facebook, o administrador passa também a poder contestar uma remoção. Alguns tipos de derrubada não serão informados nesse processo, como “spam”, “posts caça-cliques” ou “violações de propriedade intelectual”.

Reincidência

Outra medida anunciada foi a fiscalização mais rígida de autores de páginas removidas. A plataforma já impedia a criação de um espaço deste tipo semelhante a um derrubado por violar as normas internas. Mas, segundo a companhia, foram identificadas “pessoas trabalhando para contornar nossa política, usando páginas existentes que elas já gerenciavam para o mesmo propósito que a página removida por violar nossas políticas”.

Em resposta a isso, o Facebook poderá retirar outras páginas de autores de páginas removidas mesmo que aquelas não tenham incorrido em alguma violação. Para fazer isso, explicou a plataforma, será avaliado “um amplo conjunto de sinais”, como os administradores ou se o nome é similar.

Medida “tímida”

Na avaliação do mestre em direito e pesquisador do Instituto Beta Paulo Rená, as medidas anunciadas sinalizam para maior transparência na remoção de conteúdos, mas ainda são “tímidas” e podem “não fazer muita diferença”.

“Não me parece haver nenhum indicativo de mais permeabilidade do Facebook para ouvir a comunidade. Isso pode manter a situação de inércia perante falsos positivos, quando conteúdos legítimos são removidos sem que haja real possibilidade de reação pelas pessoas interessadas; ou quando conteúdos ofensivos, especialmente relacionados a discurso de ódio, são mantidos online a despeito de protestos na própria rede”.

Já a advogada e integrante do Comitê Gestor da Internet no Brasil Flávia Lefévre argumenta que a despeito das novas regras, permanece o problema dos Parâmetros da Comunidade serem pouco transparentes. Ela cita casos, como situações que ela própria viveu, em que usuários têm conteúdos removidos e mesmo após questionamento o Facebook não explica a razão da remoção ou reverte a situação.

“A remoção de conteúdos acontece com base em critérios dos tais Padrões da Comunidade, que não são claros. Essa prática se configura como arbitrariedade com alto risco para a liberdade de expressão. Essa prática deveria estar ancorada em critérios claros e relacionados às leis brasileiras e em concordância com a jurisprudência”, defende a advogada.

 

Fonte: Agência Brasil