Rede
social mais criticada, o Facebook inicialmente rebateu as acusações relativas
ao papel nas eleições dos EUA, mas depois do pleito passou a anunciar um
conjunto de medidas para reduzir a circulação dessas mensagens na sua
plataforma. A principal delas foi a realização de um acordo com agências de
checagem para averiguar a veracidade de publicações. No Brasil, a parceria
envolve as agências Lupa, Aos Fatos e France Press. “Esse mecanismo permitiu
cortar em até 80% a distribuição orgânica de notícias consideradas falsas por
agências de verificação parceiras nos Estados Unidos, onde a ferramenta já está
funcionando há algum tempo”, relatou a empresa em nota divulgada em 10 de
maio.
Conteúdos
são selecionados por meio de sistemas automatizados da plataforma e a partir de
denúncias feitas por pessoas. Há ferramentas para que usuários possam indicar
um post como fake
news . Em seguida, são checados pelas agências – cada uma com
metodologia específica. A Lupa, por exemplo, classifica os textos em: (1)
verdadeiro; (2) verdadeiro, mas.., quando o leitor merece mais explicações; (3)
ainda é cedo pra dizer, quando a informação ainda não é verdadeira; (4)
exagerado; (5) contraditório; (6) insustentável; e (7) falso.
Em 2017,
o Facebook anunciou que as checagens apareceriam como uma informação adicional.
Contudo, em 2018 elas passaram a ter consequências para os autores.
Aquelas mensagens consideradas falsas têm o alcance reduzido, e os usuários que
as compartilharam recebem uma notificação.
Outra
frente de atuação é o combate aos perfis falsos, identificados como um
instrumento de difusão de fake news . A empresa
anunciou em maio que derrubou neste ano, em média, 6 milhões de contas falsas
por dia. A remoção ocorreu baseada nos “parâmetros da comunidade”, regras que,
quando violadas, geram a exclusão da publicação. O chamado discurso de ódio,
muitas vezes associado a notícias falsas, também é objeto de retirada. “Também
removemos 2,5 milhões de conteúdos com discurso de ódio no primeiro trimestre
de 2018”, informou o vice-presidente de produto, Guy Rosen, em comunicado
publicado em 15 de maio.
Uma das
principais críticas de autoridades e organizações da sociedade civil é a falta
de transparência no pagamento de anúncios, recurso usados por organizações
russas na disputa estadunidense de 2016. No Brasil, também cresceu o receio
sobre possíveis abusos nessa ferramenta depois que ela foi legalizada para as
eleições deste ano pela minirreforma eleitoral aprovada no ano passado.
O
Facebook anunciou ao longo do ano algumas ações sobre o tema, como a
identificação de anúncios políticos (no Brasil são aqueles divulgados por
candidatos), a disponibilização da informação em cada página de quais anúncios
estão ativos ou já foram distribuídos no passado. “Durante a campanha
eleitoral, os brasileiros verão quais anúncios foram marcados pelos anunciantes
nessa categoria, e todos eles serão adicionados ao arquivo”, explicou a
diretora de Marketing de Produto, Emma Rodgers, em nota divulgada em 28 de
junho.
Google
O Google
evita usar o termo fake news , adotando os conceitos de
“conteúdos enganosos, manipulados e fabricados”. A plataforma contribuiu para
fundar uma coalizão internacional sobre o tema, chamada First Draft. Neste ano,
a rede vai realizar um programa de checagem de informações nas eleições que
ganhou o nome de "comprova", contando com a presença de diversos
órgãos de mídia do país.
A
plataforma criou também um braço voltado ao jornalismo, Google Notícias. Este
realiza projetos de estímulo ao jornalismo de qualidade, como financiamento de
projetos e cursos. Em março deste ano, a empresa anunciou a destinação de R$
1,12 bilhão nessa frente.
Para a
identificação e verificação de conteúdos falsos disponibilizados na ferramenta
de busca, foi criado um selo de checagem de fatos. “O selo de checagem não
significa priorização na busca. O resultado em que ele vai aparecer depende da
busca pelo conteúdo, e não pelo fato de ele ser checado”, explicou o diretor de
Relações Governamentais e Políticas do Google no Brasil, Marcelo Lacerda, em
seminário sobre o tema realizado no Tribunal Superior Eleitoral (TSE) no dia 21
de junho.
Além
disso, a empresa ajustou os sistemas da ferramenta de busca e inseriu o que
chama de “avaliadores de qualidade”, indicadores que são lidos para que a
ferramenta de busca não disponibilize o conteúdo enganoso. Como forma de
promoção de veículos jornalísticos tradicionais, foi incluído na página do site um
carrossel com notícias de parceiros em destaque.
Twitter
O
Twitter não divulgou medidas específicas contra fake news , mas combate o
que chama de “contas automatizadas mal-intencionadas e/ou que disseminam spam ”,
perfis falsos ou os chamados robôs (ou bots , no termo em inglês
popularizado). Os robôs são vistos como um dos meios de disseminação de
notícias falsas e um dos problemas na rede social, embora estudo recente do
Instituto de Tecnologia de Massachussets (MIT, na sigla em inglês) tenha
apontado o grau de difusão de fake news por essas
contas semelhante ao de humanos
Segundo
a assessoria de empresa, também foram realizadas ações como o aprimoramento do
processo de abertura de contas, auditorias em contas já existentes e a expansão
de detecção de “comportamento mal-intencionado”. O número de contas contestadas
mensalmente subiu de 2,5 milhões em setembro de 2017 para 10 milhões em maio de
2018.
“A média
de denúncias de spam recebidas por meio de nosso
mecanismo de denúncias continuou a diminuir – de uma média de
aproximadamente 25 mil por dia em março para cerca de 17 mil por dia em maio”,
disse a vice-presidente de Segurança e Confiança, Del Harvey, em comunicado
publicado no dia 26 de junho.
Limites
Mas as
medidas adotadas pelas redes sociais estão longe de ser consenso. O uso de
selos de checagem e a diminuição do alcance ou remoção são duas das ações
contestadas. Na avaliação da Frente Parlamentar pela Liberdade de Expressão e o
Direito à Comunicação (Frentecom), rede que congrega 194 parlamentares de
vários partidos, essas medidas esbarram na dificuldade de definir o que é
verdade e o que não é (e nas variações entre esses dois extremos) e nos
possíveis vieses dos próprios checadores – além de poder induzir a uma
leitura de que qualquer conteúdo alvo de checagem é mentiroso.
“Iniciativas
das plataformas que absolutizam a referência destes checadores e da mídia
tradicional são, portanto, preocupantes”, diz documento da frente sobre o tema,
divulgado mês passado. “A atuação das plataformas – no sentido de
priorizar ou despriorizar/remover informações e conteúdos nas redes – pode
reproduzir, num ambiente de monopólio na internet, a concentração que já
vivenciamos nos meios tradicionais, com sérios impactos à diversidade e
pluralidade”, acrescenta a rede. O documento foi uma das bases do relatório do
Conselho de Comunicação Social sobre o assunto.
Na
opinião do diretor-geral da Associação Brasileira de Emissoras de Rádio e TV
(Abert), Cristiano Flores, as plataformas deveriam ter mecanismos
existentes na mídia tradicional, como a possibilidade de processo por dano
moral ou a solicitação de direito de resposta. “As medidas adotadas pelas
plataformas são importantes, mas precisa mais. Você tem modelo de
responsabilidade dos veículos tradicionais de reparação e direitos de resposta.
É importante que estes mecanismos avancem na previsibilidade no ambiente online ”,
defende.
O
pesquisador de direito digital e diretor do Instituto Beta: Internet e
Democracia, Paulo Rená, questiona o uso de sistemas automatizados (como
algoritmos) para monitorar conteúdos, recurso adotado por todas as plataformas.
“ A tecnologia não vai ser suficiente para nos salvar de nós mesmos. Para saber
o que é informação e o que é desinformação, nós precisamos do contexto. Não
será um robô, não será uma máquina ou mesmo um jeito de fazer, uma 'receita de
bolo', que vai saber o que é inverdade”, pondera.
A
entidade SaferNet, que participa do conselho consultivo criado pelo TSE para
avaliar o impacto das fake news nas
eleições, lançou documento em que apresenta uma série de iniciativas que
poderiam ser adotadas pelas plataformas. Para além das medidas de transparência
já anunciadas pelo Facebook, a ONG cobra que sejam tornados públicos dados dos
anunciantes, os valores pagos e o público-alvo definido por eles (para quem a
mensagem foi endereçada). A organização defende também a proibição do pagamento
de anúncios em moeda estrangeira, para evitar influência externa, e uma
isonomia nos preços dos anúncios aos candidatos, evitando privilégios.
Para
Francisco Brito Cruz, pesquisador em direito e tecnologia da Universidade de
São Paulo (USP) e diretor da organização de pesquisa Internetlab, o alcance das
plataformas faz com que as medidas implementadas possam ter grande
impacto. Contudo, elas não devem ser pensadas unilateralmente pelas empresas. “
Esse processo deve ser feito com muita discussão com o público, em especial com
a sociedade civil organizada e a academia, para que ele não passe por cima de
direitos das pessoas”, defende.
Fonte: Agência Brasil
Nenhum comentário:
Postar um comentário