O Facebook queria sair da política. Foi mais confuso do que qualquer um esperava

Fonte: Facebook

o facebook queria sair da politica foi mais confuso do que qualquer um esperava 1301189

Após o tumulto do Capitólio de 6 de janeiro, a meta-mãe do Facebook, a Meta Platforms Inc. disse que queria reduzir a quantidade de conteúdo político que mostrava aos usuários. A empresa foi mais longe do que quase ninguém sabia.

Alerta de segurança! Dados de 2,5 bilhões de usuários do Google Chrome estão em risco

Os resultados do esforço estão gradualmente remodelando o discurso político na maior plataforma de mídia social do mundo, embora a empresa tenha recuado da abordagem mais agressiva: apertar o botão mudo em todas as recomendações de conteúdo político.

Os esforços às vezes torturados da empresa nos últimos 18 meses para reduzir a política e outros tópicos divisivos na plataforma são descritos em documentos internos revisados pelo The Wall Street Journal.

No início, o Facebook revisou como promoveu conteúdo político e relacionado à saúde. Com pesquisas mostrando que os usuários estavam cansados de conflitos, a plataforma começou a favorecer postagens que os usuários consideravam valer seu tempo em vez daquelas que apenas os irritavam, mostram os documentos. Os debates foram bons, mas o Facebook não os amplificaria tanto.

Os líderes da Meta decidiram, no entanto, que isso não era suficiente. No final de 2021, cansado de afirmações intermináveis sobre viés político e censura, o CEO Mark Zuckerberg e o conselho da Meta pressionaram para que a empresa fosse além dos ajustes incrementais, de acordo com pessoas familiarizadas com as discussões. Apresentado com uma variedade de opções, o Sr. Zuckerberg e o conselho escolheram a mais drástica, instruindo a empresa a rebaixar postagens sobre tópicos “sensíveis” o máximo possível no feed de notícias que cumprimenta os usuários quando abrem o aplicativo – uma iniciativa que não foi relatada anteriormente.

O plano estava de acordo com as chamadas de alguns dos críticos mais severos da empresa, que alegaram que o Facebook é politicamente tendencioso ou comercialmente motivado para amplificar o ódio e a controvérsia. Durante anos, anunciantes e investidores pressionaram a empresa a limpar seu papel confuso na política, de acordo com pessoas familiarizadas com essas discussões.

Tornou-se evidente, no entanto, que o plano de silenciar a política teria consequências não intencionais, de acordo com pesquisas internas e pessoas familiarizadas com o projeto.

O resultado foi que as visualizações de conteúdo do que o Facebook considera “eleituradores de notícias de alta qualidade”, como Fox News e CNN, caíram mais do que o material dos usuários de lojas consideradas menos confiáveis. As reclamações dos usuários sobre desinformação subiram, e as doações de caridade através do produto de arrecadação de fundos da empresa através do Facebook caíram no primeiro semestre de 2022. E talvez o mais importante, os usuários não gostaram.

Uma análise interna concluiu que o Facebook poderia alcançar alguns de seus objetivos rebaixando fortemente o conteúdo cívico – cobertura de questões políticas, comunitárias e sociais – no feed de notícias, mas seria a “um custo alto e ineficiente”.

No final de junho, o Sr. Zuckerberg puxou o plugue do plano mais extremo. Incapaz de suprimir a controvérsia política por força contundente, o Facebook recuou em mudanças mais graduais na forma como seu feed de notícias promove o que a empresa considera “tópicos sensíveis”, como saúde e política.

“Como Mark disse há quase dois anos, as pessoas queriam ver menos política em geral no Facebook enquanto ainda poderiam se envolver com conteúdo político, se quisessem, e é exatamente isso que temos feito”, disse Dani Lever, porta-voz da empresa. “Nos últimos anos, testamos várias abordagens, implementando mudanças que reduzem a política, enquanto damos às pessoas as experiências que elas querem.”

A abordagem atual ainda reduz o quanto desse conteúdo os usuários veem. A Meta agora estima que a política é responsável por menos de 3% do total de visualizações de conteúdo no feed de notícias dos usuários, abaixo de 6% na época da eleição de 2020, mostram os documentos. Mas em vez de reduzir as visualizações por meio de supressão indiscriminada ou moderação pesada, o Facebook alterou as recomendações do algoritmo de feed de notícias de conteúdo sensível em relação ao que os usuários dizem que valorizam e longe do que simplesmente os faz se envolver, de acordo com documentos e pessoas familiarizadas com os esforços.

“Acontece que talvez a maneira como recomendamos o conteúdo político não deva ser da mesma maneira que recomendamos o entretenimento”, disse Ravi Iyer, ex-gerente de ciência de dados Meta que trabalhou nesta questão antes de sair em setembro para se tornar diretor administrativo do Instituto de Psicologia da Tecnologia da Universidade do Sul da Califórnia. O Sr. Iyer disse que a abordagem atual da Meta é um desvio do modelo focado no engajamento há muito usado não apenas pelo Facebook, mas por muitas outras grandes plataformas de mídia social.

O Sr. Iyer disse que deveria haver mais foco na forma como as plataformas permitem que determinado conteúdo se torne viral, em vez de decisões subjetivas sobre o que deixar para cima ou derrubar. “Ter funcionários julgando o bom versus o mau discurso muitas vezes cria mais problemas do que resolve”, disse ele. “Nosso objetivo deve ser menos chamadas de julgamento.”

Os movimentos recentes da Meta correm o risco de alienar alguns editores digitais que construíram negócios em torno dos algoritmos do feed de notícias.

A Courier Newsroom, uma rede de oito publicações digitais que se descreve como “a maior rede de notícias local de esquerda do país”, disse que lutou por tração no Facebook à medida que acelerava para as provas de 2022. Apesar de aumentar sua produção de artigos em 14,5% em outubro, a empresa descobriu que suas impressões orgânicas no Facebook – ou seja, aquelas não impulsionadas pela publicidade paga – foram reduzidas em 42,6% em relação ao mês anterior.

“O Facebook continua sendo uma das plataformas de distribuição mais poderosas e de longo alcance do mundo”, disse Tara McGowan, editora da Courier Newsroom. “Ao limitar ainda mais o alcance de editores de notícias confiáveis em sua plataforma, eles só exacerbarão a crise de informação na América que ajudaram a criar.”

No site de notícias de tendência progressiva Mother Jones, que cobre principalmente políticas e questões sociais, o total de visualizações de conteúdo do Facebook em 2022 foi de cerca de 35% do que eram no período do ano anterior. “É sombrio ver em termos tão severos quanto poder uma única empresa de tecnologia tem sobre as notícias que as pessoas podem acessar”, disse Monika Bauerlein, CEO da Mother Jones.

Para Dan Bongino, um comentarista conservador cuja página do Facebook é uma das mais populares da plataforma, o envolvimento do usuário – uma medida de curtidas, comentários e compartilhamentos – continuou a crescer, de acordo com a ferramenta de análise CrowdTangle. Ele também acha que a mudança estratégica do Facebook para longe da política é equivocada, em parte, disse ele, porque sua base de usuários fica mais velha e tende a se interessar por questões políticas.

“Eles poderiam ter usado seu público mais velho para financiar seu Meta mais jovem e mais legal”, disse ele. “Em vez disso, eles disseram: ‘Eu tenho uma ideia. Vamos pegar nosso trem de molho de usuários mais velhos que gostam de conteúdo conservador e apagá-los da plataforma.’ “

O Facebook há anos tem um relacionamento conflituoso com a política, já que existem poucos outros tópicos que irritam os usuários – e tão engajados nas mídias sociais.

Falando na Universidade de Georgetown em 2019, o Sr. Zuckerberg defendeu o papel das mídias sociais na política e na sociedade. “Acredito que as pessoas devem ser capazes de usar nossos serviços para discutir questões sobre as quais se sentem fortemente – da religião e imigração à política externa e ao crime”, disse ele, argumentando que o papel do Facebook no discurso público foi, em última análise, saudável.

Um artigo do Journal em 2021 citou pesquisas internas da empresa mostrando que as medidas para promover o engajamento favoreceram o material inflamatório, com editores e partidos políticos reorientando suas postagens em direção à indignação e ao sensacionalismo.

O Facebook disse que tinha uma equipe de integridade para abordar os esforços para explorar seu algoritmo e que não era responsável por divisões partidárias na sociedade.

Os pesquisadores continuaram a documentar o tratamento preferencial do conteúdo tóxico pelo Facebook, mesmo após a publicação dos artigos. Uma apresentação de outubro de 2021 observou que o algoritmo do Facebook há muito tempo forneceu incentivos para a criação de “conteúdo indutivo e não confiável”.

Na sequência das eleições de 2020 e do tumulto de 6 de janeiro, a pressão aumentou sobre a empresa para abordar a percepção generalizada de que era tóxica ou tendenciosa.

As pesquisas pós-eleitoral da empresa mostraram que os usuários acreditavam que o Facebook tinha efeitos insalubres no discurso cívico e que queriam ver menos política na plataforma. Os legisladores interrogaram executivos da empresa em audiências do Congresso.

O Sr. Zuckerberg parecia estar cansativo do assunto. “A política teve uma maneira de entrar em tudo”, disse ele em uma chamada de ganhos de janeiro de 2021, semanas após o tumulto. Os usuários estavam cansados da política, disse ele, não apenas nos EUA, mas em todo o mundo. Pela primeira vez publicamente, ele disse que o Facebook estava procurando maneiras de desenfatizar o conteúdo político no feed de notícias. “Eu só não acho que esteja servindo particularmente bem à comunidade recomendar esse conteúdo agora”, disse ele.

Em fevereiro, o Facebook anunciou que começaria temporariamente a mostrar menos conteúdo político para “uma pequena porcentagem de pessoas”, à medida que experimentava maneiras de servir melhor seus usuários. O objetivo não era restringir a discussão política, disse a empresa, mas “respeitar o apetite de cada pessoa por isso”.

Começou o experimento nos EUA, Brasil e Canadá, um afastamento de sua prática usual de testar grandes mudanças nos mercados secundários.

Seis meses depois, a empresa disse que progrediu na identificação de “quais postagens as pessoas acham mais valiosas do que outras” e que colocaria menos ênfase em compartilhamentos e comentários no futuro.

O anúncio minimizou a magnitude da mudança. O Facebook não estava apenas desenfatizando recompartilhamentos e comentários sobre tópicos cívicos. Estava removendo completamente esses sinais de seu sistema de recomendação.

“Nós tiramos todo o peso pelo qual aumentamos um post com base em nossa previsão de que alguém o comentará ou compartilhará”, disse um documento interno posterior.

Essa foi uma versão mais agressiva do que alguns pesquisadores do Facebook estavam pressionando há anos: abordar informações imprecisas e outros problemas de integridade, tornando a plataforma menos viral. Como a abordagem não envolvia censurar pontos de vista ou rebaixar conteúdo por meio de sistemas imprecisos de inteligência artificial, foi considerada “defensável”, no jargão da empresa.

As visualizações do conteúdo cívico no feed de notícias caíram quase um terço, mostraram dados internos. Com a empresa não amplificando mais as postagens que previu, era mais provável que você coletasse muitas respostas, os comentários sobre postagens cívicas caíram dois terços. As reações de raiva caíram mais da metade no conteúdo cívico e quase um quarto em toda a plataforma. Bullying, informações imprecisas e violência gráfica também caíram.

Mas houve um custo. Embora os usuários tenham dito ao Facebook que seus feeds eram mais “valem o seu tempo”, eles também fizeram login na plataforma 0,18% menos. Embora a empresa já tivesse abandonado mudanças que resultaram em reduções menores, desta vez aceitou o custo.

O conselho, no entanto, permaneceu preocupado com o que foi referido internamente como “saliência” política – o grau em que as pessoas associaram o Facebook a tópicos de alta controvérsia, de acordo com documentos e pessoas familiarizadas com o assunto.

Os usuários relataram ao Facebook que o conteúdo cívico continuou a causar experiências ruins, gerando palavrões, bullying e relatórios de desinformação em taxas desproporcionais. Pesquisas com usuários mostraram que as pessoas estavam convencidas de que a plataforma tinha um efeito social insalubre.

O conselho e o Sr. Zuckerberg resolveram a supressão ampla do conteúdo cívico no feed de notícias. Mas desligar a política não foi tão fácil quanto ligar um interruptor. O algoritmo de feed de notícias tem 30.000 linhas de código, e imprecisões na detecção de conteúdo significavam que o Facebook seria capaz de reduzir as visualizações de conteúdo cívico em apenas 70%. Nem as mudanças abordariam diretamente as controvérsias decorrentes de fóruns de usuários que pensam da mesma forma, chamados Grupos do Facebook, um ponto quente recorrente para questões como informações incorretas sobre vacinas e negação eleitoral.

A empresa planejava implementar as mudanças no verão de 2022, antes das eleições de meio de mandato dos EUA. Os documentos mostram que a empresa planejava informar os usuários sobre a mudança e estava considerando como oferecer a eles opções.

A empresa tentou prever as consequências testando variações na mudança do algoritmo em mais de um quarto dos usuários do Facebook nos EUA. Os testes mostraram que, para muitos editores de notícias, os efeitos seriam graves.

Dependendo da mistura de recursos de supressão implantados, o tráfego projetado do Facebook para a Fox News, MSNBC, o New York Times, Newsmax, o Atlantic e o The Wall Street Journal cairia inicialmente de 40% a 60% além das reduções já promulgadas, com os efeitos provavelmente diminuindo à medida que os editores encontravam maneiras de se adaptar.

Isso não foi visto como um problema. Uma análise que o acompanha observou que o Facebook esperava “reduzir os incentivos para produzir conteúdo cívico”.

Apenas testar a ampla debaixamento cívico em uma fração dos usuários do Facebook causou um declínio de 10% nas doações para instituições de caridade por meio do recurso de arrecadação de fundos da plataforma. Grupos humanitários, associações de pais-professores e arrecadadores de fundos hospitalares levariam sérios golpes ao seu engajamento no Facebook.

Uma apresentação interna alertou que, embora suprimir amplamente o conteúdo cívico reduziria as más experiências do usuário, “provavelmente também estamos visando o conteúdo que os usuários querem ver…. A maioria dos usuários quer a mesma quantidade ou mais conteúdo cívico do que vê em seus feeds hoje. A principal experiência ruim foi corrosividade/dividiosidade e desinformação no conteúdo cívico.”

Ainda mais preocupante foi que suprimir conteúdo cívico não parecia provavelmente convencer os usuários de que o Facebook não era politicamente tóxico. De acordo com pesquisas internas, a porcentagem de usuários que disseram que achavam que o Facebook tinha um efeito negativo na política não mudou com as mudanças, permanecendo consistentemente em torno de 60% nos EUA.

Todos esses dados persuadiram o Sr. Zuckerberg, no final de junho, a abandonar as mudanças planejadas de maior alcance, deixando a empresa repensar mais uma vez como promover conteúdo sensível. Construiu uma maneira de isolar os postos cívicos e de saúde de seus esforços quase constantes para aumentar o engajamento.

A empresa ainda está debatendo se também deve restringir a forma como promove outros tipos de conteúdo. Quando o feed de notícias ligou de volta para a recompensa por produzir postagens inflamatórias sobre política e saúde, alguns editores mudaram para uma cobertura de crimes mais sensacionalista.

“Isso abre a porta para pensar sobre quais devem ser as linhas para conteúdo sensível e não sensível”, disse o Sr. Iyer, ex-gerente de ciência de dados do Facebook. “Seria ótimo para o mundo pesar nessa conversa.”

Algumas semanas depois que o Sr. Zuckerberg abandonou os planos para as mudanças gerais, a empresa emitiu um adendo conciso à sua postagem no blog de fevereiro de 2021, no qual anunciou planos de experimentar mostrar aos usuários menos conteúdo político.

“Nossos testes concluíram”, escreveu a empresa, que “colocar menos ênfase em compartilhamentos e comentários para conteúdo político é uma maneira eficaz de reduzir a quantidade de conteúdo político que as pessoas experimentam em seu Feed. Agora implementamos essas mudanças globalmente.”

Um documento de planejamento atual lista “Reduzir más experiências com tópicos sensíveis” como uma “prioridade não pode falhar” para a equipe de integridade do feed de notícias do Facebook.

“Precisamos acelerar o progresso no Facebook nesta área”, disse o documento.

Pode te interessar também – Como enviar reações de mensagens no WhatsApp

Veja mais notícias como esta em nosso caderno de tecnologia.

 

CenárioMT - Publicamos notícias diariamente no portal! Notícias em primeira-mão e informações de bastidores sobre o que acontece em Mato Grosso.