A
ascensão das chamadas notícias falsas (fake news, no termo em
inglês) a um objeto de preocupação em todo o mundo colocou no centro da
discussão o papel de redes sociais como Facebook, Google, YouTube, Twitter e
WhatsApp. Se por um lado é reconhecido que o fenômeno da desinformação é
antigo, por outro lado é consenso entre pesquisadores, autoridades e empresas
que a diferença no cenário atual de divulgação de conteúdos falsos está no
alcance e na velocidade permitidos pelo compartilhamento de mensagens nesses
ambientes. Para tentar diminuir os questionamentos e o dano à imagem, diversas
redes sociais vêm anunciando medidas para tentar combater a circulação das
notícias falsas.
As redes
sociais são terreno fértil para a difusão de notícias falsas por diferentes
motivos. Alguns criadores desses conteúdos buscam divulgar uma ideia ou atacar
uma pessoa, partido ou instituição. Outros têm motivação econômica, uma vez que
a grande circulação de uma publicação gera interações, o que pode se traduzir
em dinheiro a partir da lógica de veiculação de anúncios nessas plataformas.
Foi o caso, por exemplo, de jovens da Macedônia que criaram perfis para
difundir notícias falsas nas eleições dos Estados Unidos em 2016 como fonte de
renda.
Essas
possibilidades geraram intensos questionamentos. Nos Estados Unidos, o Facebook
virou objeto de investigação do Congresso sobre uma possível influência de
organizações russas nas eleições de 2016. O presidente da empresa, Mark
Zuckerberg, teve de ir ao Congresso prestar explicações também sobre o
escândalo de vazamento de dados de 87 milhões de usuários envolvendo a empresa
de marketing eleitoral
Cambridge Analytica. A companhia foi questionada ainda por autoridades de
outros países, inclusive brasileiras, sobre o caso.
Na
Índia, o WhatsApp, aplicativo de propriedade do Facebook, virou assunto de
preocupação nacional nas últimas semanas depois de uma série de assassinatos e
linchamentos a partir de informações falsas divulgadas na rede social.
O Google
sofreu críticas por apresentar nos resultados de busca informações falsas,
tanto sobre as eleições dos EUA quanto sobre fatos históricos, como o
Holocausto.
Facebook
Rede
social mais criticada, o Facebook inicialmente rebateu as acusações relativas
ao papel nas eleições dos EUA, mas depois do pleito passou a anunciar um
conjunto de medidas para reduzir a circulação dessas mensagens na sua
plataforma. A principal delas foi a realização de um acordo com agências de
checagem para averiguar a veracidade de publicações. No Brasil, a parceria
envolve as agências Lupa, Aos Fatos e France Press. “Esse mecanismo permitiu
cortar em até 80% a distribuição orgânica de notícias consideradas falsas por
agências de verificação parceiras nos Estados Unidos, onde a ferramenta já está
funcionando há algum tempo”, relatou a empresa em nota divulgada em 10 de
maio.
Conteúdos
são selecionados por meio de sistemas automatizados da plataforma e a partir de
denúncias feitas por pessoas. Há ferramentas para que usuários possam indicar
um post como fake
news. Em seguida, são checados pelas agências – cada uma com
metodologia específica. A Lupa, por exemplo, classifica os textos em: (1)
verdadeiro; (2) verdadeiro, mas.., quando o leitor merece mais explicações; (3)
ainda é cedo pra dizer, quando a informação ainda não é verdadeira; (4)
exagerado; (5) contraditório; (6) insustentável; e (7) falso.
Em 2017,
o Facebook anunciou que as checagens apareceriam como uma informação adicional.
Contudo, em 2018 elas passaram a ter consequências para os autores.
Aquelas mensagens consideradas falsas têm o alcance reduzido, e os usuários que
as compartilharam recebem uma notificação.
Outra
frente de atuação é o combate aos perfis falsos, identificados como um
instrumento de difusão de fake news. A empresa
anunciou em maio que derrubou neste ano, em média, 6 milhões de contas falsas
por dia. A remoção ocorreu baseada nos “parâmetros da comunidade”, regras que,
quando violadas, geram a exclusão da publicação. O chamado discurso de ódio,
muitas vezes associado a notícias falsas, também é objeto de retirada. “Também
removemos 2,5 milhões de conteúdos com discurso de ódio no primeiro trimestre
de 2018”, informou o vice-presidente de produto, Guy Rosen, em comunicado
publicado em 15 de maio.
Uma das
principais críticas de autoridades e organizações da sociedade civil é a falta
de transparência no pagamento de anúncios, recurso usados por organizações
russas na disputa estadunidense de 2016. No Brasil, também cresceu o receio
sobre possíveis abusos nessa ferramenta depois que ela foi legalizada para as
eleições deste ano pela minirreforma eleitoral aprovada no ano passado.
O
Facebook anunciou ao longo do ano algumas ações sobre o tema, como a
identificação de anúncios políticos (no Brasil são aqueles divulgados por
candidatos), a disponibilização da informação em cada página de quais anúncios
estão ativos ou já foram distribuídos no passado. “Durante a campanha
eleitoral, os brasileiros verão quais anúncios foram marcados pelos anunciantes
nessa categoria, e todos eles serão adicionados ao arquivo”, explicou a
diretora de Marketing de Produto, Emma Rodgers, em nota divulgada em 28 de
junho.
Google
O Google
evita usar o termo fake news, adotando os conceitos de
“conteúdos enganosos, manipulados e fabricados”. A plataforma contribuiu para
fundar uma coalizão internacional sobre o tema, chamada First Draft. Neste ano,
a rede vai realizar um programa de checagem de informações nas eleições que
ganhou o nome de "comprova", contando com a presença de diversos
órgãos de mídia do país.
A
plataforma criou também um braço voltado ao jornalismo, Google Notícias. Este
realiza projetos de estímulo ao jornalismo de qualidade, como financiamento de
projetos e cursos. Em março deste ano, a empresa anunciou a destinação de R$
1,12 bilhão nessa frente.
Para a
identificação e verificação de conteúdos falsos disponibilizados na ferramenta
de busca, foi criado um selo de checagem de fatos. “O selo de checagem não
significa priorização na busca. O resultado em que ele vai aparecer depende da
busca pelo conteúdo, e não pelo fato de ele ser checado”, explicou o diretor de
Relações Governamentais e Políticas do Google no Brasil, Marcelo Lacerda, em
seminário sobre o tema realizado no Tribunal Superior Eleitoral (TSE) no dia 21
de junho.
Além
disso, a empresa ajustou os sistemas da ferramenta de busca e inseriu o que
chama de “avaliadores de qualidade”, indicadores que são lidos para que a
ferramenta de busca não disponibilize o conteúdo enganoso. Como forma de
promoção de veículos jornalísticos tradicionais, foi incluído na página do site um
carrossel com notícias de parceiros em destaque.
Twitter
O
Twitter não divulgou medidas específicas contra fake news, mas combate o
que chama de “contas automatizadas mal-intencionadas e/ou que disseminam spam”,
perfis falsos ou os chamados robôs (ou bots, no termo em inglês
popularizado). Os robôs são vistos como um dos meios de disseminação de
notícias falsas e um dos problemas na rede social, embora estudo recente do
Instituto de Tecnologia de Massachussets (MIT, na sigla em inglês) tenha
apontado o grau de difusão de fake news por essas
contas semelhante ao de humanos
Segundo
a assessoria de empresa, também foram realizadas ações como o aprimoramento do
processo de abertura de contas, auditorias em contas já existentes e a expansão
de detecção de “comportamento mal-intencionado”. O número de contas contestadas
mensalmente subiu de 2,5 milhões em setembro de 2017 para 10 milhões em maio de
2018.
“A média
de denúncias de spam recebidas por meio de nosso
mecanismo de denúncias continuou a diminuir – de uma média de
aproximadamente 25 mil por dia em março para cerca de 17 mil por dia em maio”,
disse a vice-presidente de Segurança e Confiança, Del Harvey, em comunicado
publicado no dia 26 de junho.
Limites
Mas as
medidas adotadas pelas redes sociais estão longe de ser consenso. O uso de
selos de checagem e a diminuição do alcance ou remoção são duas das ações
contestadas. Na avaliação da Frente Parlamentar pela Liberdade de Expressão e o
Direito à Comunicação (Frentecom), rede que congrega 194 parlamentares de
vários partidos, essas medidas esbarram na dificuldade de definir o que é
verdade e o que não é (e nas variações entre esses dois extremos) e nos
possíveis vieses dos próprios checadores – além de poder induzir a uma
leitura de que qualquer conteúdo alvo de checagem é mentiroso.
“Iniciativas
das plataformas que absolutizam a referência destes checadores e da mídia
tradicional são, portanto, preocupantes”, diz documento da frente sobre o tema,
divulgado mês passado. “A atuação das plataformas – no sentido de
priorizar ou despriorizar/remover informações e conteúdos nas redes – pode
reproduzir, num ambiente de monopólio na internet, a concentração que já
vivenciamos nos meios tradicionais, com sérios impactos à diversidade e
pluralidade”, acrescenta a rede. O documento foi uma das bases do relatório do
Conselho de Comunicação Social sobre o assunto.
Na
opinião do diretor-geral da Associação Brasileira de Emissoras de Rádio e TV
(Abert), Cristiano Flores, as plataformas deveriam ter mecanismos
existentes na mídia tradicional, como a possibilidade de processo por dano
moral ou a solicitação de direito de resposta. “As medidas adotadas pelas
plataformas são importantes, mas precisa mais. Você tem modelo de
responsabilidade dos veículos tradicionais de reparação e direitos de resposta.
É importante que estes mecanismos avancem na previsibilidade no ambiente online”,
defende.
O
pesquisador de direito digital e diretor do Instituto Beta: Internet e
Democracia, Paulo Rená, questiona o uso de sistemas automatizados (como
algoritmos) para monitorar conteúdos, recurso adotado por todas as plataformas.
“ A tecnologia não vai ser suficiente para nos salvar de nós mesmos. Para saber
o que é informação e o que é desinformação, nós precisamos do contexto. Não
será um robô, não será uma máquina ou mesmo um jeito de fazer, uma 'receita de
bolo', que vai saber o que é inverdade”, pondera.
A
entidade SaferNet, que participa do conselho consultivo criado pelo TSE para
avaliar o impacto das fake news nas
eleições, lançou documento em que apresenta uma série de iniciativas que
poderiam ser adotadas pelas plataformas. Para além das medidas de transparência
já anunciadas pelo Facebook, a ONG cobra que sejam tornados públicos dados dos
anunciantes, os valores pagos e o público-alvo definido por eles (para quem a
mensagem foi endereçada). A organização defende também a proibição do pagamento
de anúncios em moeda estrangeira, para evitar influência externa, e uma
isonomia nos preços dos anúncios aos candidatos, evitando privilégios.
Para
Francisco Brito Cruz, pesquisador em direito e tecnologia da Universidade de
São Paulo (USP) e diretor da organização de pesquisa Internetlab, o alcance das
plataformas faz com que as medidas implementadas possam ter grande
impacto. Contudo, elas não devem ser pensadas unilateralmente pelas empresas. “
Esse processo deve ser feito com muita discussão com o público, em especial com
a sociedade civil organizada e a academia, para que ele não passe por cima de
direitos das pessoas”, defende.
Fonte: Agência Brasil











Nenhum comentário:
Postar um comentário