Por Renée DiResta
Nas últimas duas décadas, a maior parte do discurso on-line ocorreu em um punhado de plataformas de mídia social. Seu domínio parecia inabalável. A questão não era quando um concorrente do Twitter ou do Facebook chegaria, mas se algum deles conseguiria fazê-lo com sucesso. Será que um novo aplicativo matador, ou talvez o bastão do antitruste, poderia fazer a diferença?
Hoje, essas mesmas plataformas ainda desfrutam das maiores bases de usuários; grandes sucessos como o TikTok são a rara exceção, não a regra. No entanto, o êxodo de usuários para plataformas menores tem se tornado cada vez mais comum — especialmente do X, o outrora indiscutível lar do Discurso. Os refugiados do X se dispersaram e se estabeleceram várias vezes: no Gab e no Truth Social, no Mastodon e no Bluesky.
O que acabou fragmentando a mídia social não foi um aplicativo matador ou a Comissão Federal de Comércio — foi a moderação de conteúdo. Os usuários mais radicais entraram em conflito com os “árbitros” encarregados de definir e aplicar regras como a proibição do discurso de ódio ou de tomar decisões sobre como lidar com o conteúdo da Covid-19. Princípios como ”liberdade de expressão, não liberdade de alcance“ — que propunha que o conteúdo “limítrofe” (publicações que se enquadravam em áreas cinzentas em relação ao discurso de ódio, por exemplo) permanecesse visível, mas não amplificado — tentaram articular um meio-termo. No entanto, até mesmo os esforços com nuances foram reenquadrados como supressão irracional por ideólogos que reconheceram o poder de dominar o discurso on-line. Os esforços para moderar se tornaram pontos críticos, alimentando um ciclo de retroalimentação em que as normas on-line alimentavam a polarização off-line e vice-versa.
E assim, em ondas sucessivas, os usuários partiram para alternativas: plataformas em que os árbitros eram frouxos (Truth Social), quase inexistentes (Telegram) ou autoproclamados (Mastodon). Grande parte dessa fragmentação ocorreu em linhas políticas. Hoje, a Grande Descentralização está se acelerando, com jornais de peso, Luke Skywalker e outros como os mais recentes refugiados de alto nível a liderar novas retiradas.
Antigamente, eram os novos recursos, como a marcação de fotos do Facebook ou os tweets com citações do Twitter, que atraíam os usuários para os sites de mídia social. Agora, é frequentemente o alinhamento ideológico que seduz os usuários. As pessoas estão migrando para plataformas que acreditam corresponder às suas normas e valores — e, em uma América cada vez mais polarizada, há um abismo entre os dois lados.
No entanto, essa migração é mais do que aparenta. Sob a superfície, há uma mudança profunda na tecnologia que sustenta a socialização on-line. Na última onda de descaminho — principalmente para o Bluesky — os usuários estão buscando uma alternativa ideológica para o X, cada vez mais de direita. Eles podem estar saindo por causa da “energia”, mas também estão entrando em um mundo que é fundamentalmente diferente de maneiras que muitos estão apenas começando a entender. A natureza federada das alternativas emergentes, como Mastodon e Bluesky — plataformas estruturadas como uma rede de servidores administrados de forma independente com seus próprios usuários e regras, conectados por um protocolo tecnológico comum — oferece um futuro em potencial no qual as comunidades criam suas próprias instâncias (ou servidores) com suas próprias regras.
Esse movimento de afastamento da confiança centralizada e das equipes de segurança que aplicam regras universais pode parecer uma solução para os problemas da mídia social. Menos confrontos violentos entre combatentes culturais. Menos acusações histriônicas de “censura”. Os jogadores se tornando os árbitros. Isso não é o ideal?
No entanto, novos modelos de governança trazem consigo novas complexidades, e é fundamental lidar com o que está por vir. O que acontece quando comunidades on-line de dezenas de milhões de pessoas se fragmentam em comunidades autônomas menores e politicamente homogêneas? E o que isso significa para a coesão social e o consenso, tanto on-line quanto off-line?
Precedendo a grande descentralização
Como chegamos até aqui? O sistema centralizado de moderação de conteúdo que começou a se fragmentar foi moldado por uma mistura de valores políticos americanos, normas sociais e realidades econômicas, conforme argumentou a pesquisadora e professora Kate Klonick na Harvard Law Review em 2018. O ensaio de Klonick, ”The new governors“ (“Os novos governadores”), detalha como as políticas de governança de plataforma foram, em grande parte, elaboradas por advogados americanos com pedigree da Primeira Emenda.
Essas plataformas eram de propriedade e operação privadas, sim, mas sua governança obedecia ao espírito da lei americana. No entanto, a maioria das plataformas também considerava seu dever moderar o conteúdo “obsceno, violento ou de ódio”. Isso se deveu, em parte, ao desejo de serem vistas como boas cidadãs corporativas, mas também foi puramente pragmático: “A viabilidade econômica depende de atender ao discurso dos usuários e às normas da comunidade”, escreveu Klonick. Quando as plataformas criavam ambientes que atendiam às expectativas dos usuários, eles passavam mais tempo no site e a receita podia aumentar. Medidas econômicas, pura e simplesmente.
No entanto, mesmo quando as plataformas buscavam equilibrar a responsabilidade corporativa, a segurança do usuário e a viabilidade econômica, as regras se tornavam cada vez mais pontos de descontentamento. As decisões de moderação de conteúdo foram percebidas não como uma governança neutra, mas como julgamentos carregados de valores — declarações implícitas de quais vozes eram bem-vindas e quais não eram. A remoção da icônica foto “Napalm Girl” pelo Facebook em 2016 — devido à aplicação automatizada de regras contra a nudez — provocou uma reação global, forçando a plataforma a reverter sua decisão e reconhecer as complexidades da moderação em escala.
Na mesma época, o Twitter foi criticado por não ter respondido adequadamente ao aumento de propagandistas do grupo Estado Islâmico e a campanhas de assédio como o ”Gamergate“ (um movimento on-line de 2014 ostensivamente sobre a ética no jornalismo de jogos, mas amplamente percebido como uma campanha de trolls contra mulheres no setor).
Esses incidentes ressaltaram as tensões entre a aplicação dos padrões da comunidade e a proteção da liberdade de expressão. Para muitos usuários, especialmente aqueles cujo discurso beirava o controverso ou ofensivo, os árbitros das plataformas de Big Tech pareciam exercer um poder desproporcional, o que alimentou um sentimento de alienação e desconfiança. Em vez de simplesmente restringir o que poderia ser dito on-line, as regras pareciam indicar quais perspectivas detinham o poder na praça pública digital.
À medida que essas forças convergiam e se consolidavam no status quo da governança, aqueles que se irritavam com ele enfrentavam uma escolha eterna: saída versus manifestação. Deveriam abandonar um produto ou uma comunidade em busca de melhores opções ou ficar e se manifestar, canalizando sua frustração em demandas por mudanças?
O economista alemão Albert Hirschman argumentou que a decisão entre sair ou se manifestar para os consumidores insatisfeitos era mediada por um terceiro fator: a lealdade. A lealdade, seja ela enraizada no patriotismo ou na afinidade com a marca, pode prender os indivíduos a uma instituição ou a um produto, tornando-os mais propensos a pedir mudanças do que a se afastar. Durante anos, a lealdade às principais plataformas tinha menos a ver com afeição e mais com realidades estruturais; o domínio monopolista e os poderosos efeitos de rede deixaram os usuários de mídia social com poucas alternativas realistas. Não havia muitos aplicativos com os recursos, a massa crítica ou o alcance para atender às necessidades de entretenimento, conexão ou influência dos usuários. Os políticos e ideólogos também se basearam na escala das plataformas para propagar suas mensagens. As pessoas permaneceram, mesmo quando sua insatisfação era latente.
E assim, a manifestação foi a resposta. Políticos e grupos de defesa pressionaram as empresas a mudar as políticas para atender às necessidades de seu lado — um processo conhecido como ”working the refs“ (“trabalhar” os árbitros) entre aqueles que estudam a moderação de conteúdo. Em 2016, por exemplo, o ”Trending Topicsgate“ viu influenciadores de direita e a mídia partidária criticarem o Facebook por supostamente ter diminuído a classificação de manchetes conservadoras em seu recurso de tópicos de tendências. O ciclo de indignação funcionou: O Facebook demitiu seus curadores humanos de notícias e reformulou o sistema. (O substituto deles, um algoritmo, rapidamente se ocupou em espalhar manchetes ultrajantes e falsas, inclusive de fábricas de trolls da Macedônia, até que a empresa finalmente decidiu eliminar o recurso). Organizações de esquerda também trabalharam novamente ao longo dos anos, aplicando pressão para maximizar seus interesses.
Multidões politicamente engajadas on-line começaram a perceber até mesmo decisões pontuais como evidência de vieses de classificação. As chamadas de moderação de conteúdo que envolviam disputas interpessoais aparentemente inconsequentes foram ampliadas e transformadas em polêmicas — prova de que as plataformas se curvavam à política de identidade ou perpetuavam algum tipo de supremacia. Havia um pouco de verdade: os moderadores cometiam erros, perdiam o contexto e tomavam decisões erradas ao trabalharem com milhões de decisões por trimestre. No entanto, à medida que a discordância se tornou um esporte faccioso, as plataformas se viram arbitrando uma guerra cultural cada vez maior. Os esforços para impor a ordem — para evitar que pessoas reais tivessem suas vidas pessoais devassadas, fossem perseguidas ou até mesmo simplesmente assediadas — eram rotineiramente transformados em alimento para mais agressões tribais.
Especialmente para a direita, as disputas de moderação foram reformuladas como batalhas existenciais sobre a identidade política e a própria liberdade de expressão. Apesar da escassez de evidências de qualquer viés sistêmico real, os influenciadores de direita galvanizaram-se em torno da ideia de que as plataformas os estavam perseguindo; eles deixaram de “trabalhar” os árbitros para desafiar seu direito de operar.
O então presidente Donald Trump, em particular, irritado com o fato de seus tweets enganosos terem sido rotulados como enganosos, não apresentou argumentos sutis sobre transparência ou a necessidade de um processo de apelação. Em vez disso, ele começou a deslegitimar a própria moderação de conteúdo e a ameaçar com ações regulatórias. Intervenções básicas, como rótulos de verificação de fatos em alegações contestadas — e, às vezes, até mesmo a mera suspeita de intervenção (ou seja, se um tweet não recebesse o devido engajamento) — foram reenquadradas como atos tirânicos de elites tecnológicas conspirando contra populistas de direita. Os árbitros não eram mais mediadores na guerra cultural; eles haviam se tornado a oposição.
Como essa narrativa foi incorporada à identidade política da direita, o mercado respondeu com oportunidades de saída. Plataformas alternativas como o Parler, que surgiu em 2018, foram criadas com o objetivo expresso de atender aos apoiadores de Trump que agora acreditavam que as plataformas convencionais eram irremediavelmente tendenciosas. Em seguida, surgiram o Gettr e o Truth Social, nascidos das queixas em torno da eleição de 2020 e dos tumultos de 6 de janeiro, e da moderação do homem mais responsável por instigá-los.
As novas plataformas alternativas de direita tinham árbitros no mesmo time, mas continuavam pequenas — porque a contrapartida era que havia poucos liberais para atacar. Havia poucas oportunidades para brigas partidárias ou trolagem. Havia poucos espectadores para recrutar potencialmente para uma causa preferida. Assim, os influenciadores políticos, as figuras da mídia e os políticos de todo o espectro político continuaram a trabalhar com os árbitros nas principais plataformas, onde os riscos — e o público — continuavam muito maiores.
Então, em 2022, ocorreu uma mudança sísmica: Elon Musk, um verdadeiro crente na teoria dos árbitros corruptos, comprou o Twitter — e se ungiu como árbitro principal. A plataforma que ele agora chamava de X sempre foi relativamente pequena, mas desproporcionalmente influente: sua concentração de pessoas obcecadas pela mídia e pela política lhe rendeu o apelido de “a praça pública”. Mais precisamente, muitas vezes ela funcionava como uma arena de gladiadores, um espaço caótico onde o consenso era moldado e indivíduos infelizes se tornavam ”personagens principais“ em brigas de gangues.
Após a aquisição, Musk ofereceu ”anistia“ para aqueles que haviam entrado em conflito com os antigos árbitros, inclusive neonazistas declarados. Os influenciadores de direita na plataforma aproveitaram a oportunidade para trabalhar com o novo árbitro de forma vingativa, e Musk respondeu reformulando a governança de forma rápida e significativa em favor deles. As publicações que antes eram moderadas, como rumores infundados de eleições fraudulentas ou erros intencionais de gênero de usuários transgêneros, agora eram permitidas.
A insatisfação com o novo árbitro, as políticas e o ambiente geral no X levou a um êxodo da plataforma pela esquerda política americana. Em um primeiro momento, as pessoas migraram para o Mastodon, que tinha a vantagem de já existir. Outra nova participante do mercado, a Bluesky, lançou sua versão beta com um modelo somente para convidados, impulsionado por redes de indicação. A comunidade de esquerda progressista rapidamente se estabeleceu e seus usuários testaram os árbitros relativamente novatos durante os momentos de insatisfação com suas políticas de moderação incipientes. Eles debatiam se o discurso hiperbólico constituía uma “ameaça” e sob quais condições os usuários deveriam ser banidos. Em um incidente inicial notável, os usuários confrontaram os desenvolvedores da Bluesky na plataforma e exigiram desculpas públicas depois que um bug permitiu que os trolls registrassem insultos como nomes de usuário. Em novembro de 2023, o Bluesky tinha 2 milhões de usuários e a reputação de ser um espaço muito esquerdista.
Em julho de 2023, o gorila de 800 libras entrou na competição por tuítes insatisfeitos: Threads, de propriedade da Meta. Posicionada como concorrente direta da X, a Threads se apresentava como ”administrada de forma sensata“, nas palavras do diretor de produtos Chris Cox. Entretanto, a promessa de sensatez não protegeu o Threads da dinâmica de retrabalho. A decisão da liderança de limitar as notícias políticas e bloquear algumas pesquisas relacionadas à pandemia provocou uma reação negativa de sua base de usuários, em grande parte liberal (alguns dos quais começaram a promover o Bluesky como um lugar melhor para se estar). Apesar dessas tensões, o Threads cresceu rapidamente, registrando 275 milhões de usuários ativos mensais até o final de outubro de 2024; até mesmo os usuários insatisfeitos suspiraram que era melhor que o X.
Em novembro de 2024, no entanto, era o crescimento da Bluesky que estava se acelerando drasticamente, impulsionado pela reeleição de Trump e pelo alinhamento cada vez mais explícito de Musk com a extrema direita. Musk, o usuário mais visível do X e também seu principal árbitro, havia se tornado um substituto de Trump e um defensor do roubo eleitoral, e os algoritmos de sua plataforma pareciam impulsioná-lo e a seus aliados ideológicos.
A lealdade ao antigo Twitter diminuiu constantemente entre os usuários poderosos que antes se manifestavam. Assim, muitos optaram por sair: nas semanas seguintes à eleição, a Bluesky ultrapassou a marca de 25 milhões de usuários, impulsionada não tanto pelos recursos, mas pela insatisfação ideológica e pelo fascínio de uma plataforma em que a governança parecia estar mais alinhada às normas progressistas.
Mas será que isso acontece?
Nova governança, novos desafios
A Grande Descentralização — a migração de plataformas grandes e centralizadas de tamanho único para espaços menores e ideologicamente distintos — é alimentada pela identidade política e pela insatisfação. No entanto, o mais interessante sobre essa última onda de migração é a tecnologia que sustenta a Bluesky, a Mastodon e a Threads — o que ela permite e o que ela limita inerentemente. Essas plataformas priorizam algo fundamentalmente distinto de seus antecessores: a federação. Ao contrário das plataformas centralizadas, em que a curadoria e a moderação são controladas de cima para baixo, a federação se baseia em protocolos descentralizados — ActivityPub para Mastodon (que o Threads também suporta) e o Protocolo AT para Bluesky — que permitem servidores controlados pelo usuário e devolvem a moderação (e, em alguns casos, a curadoria) para o nível da comunidade. Essa abordagem não redefine apenas a moderação; ela reestrutura a própria governança on-line. E isso se deve ao fato de que, em geral, não há referências para trabalhar.
É importante entender as vantagens e desvantagens. Se as plataformas centralizadas com suas regras e algoritmos controlados centralmente são “jardins murados”, a mídia social federada pode ser melhor descrita como “jardins comunitários”, moldados por membros conectados por meio de laços sociais ou geográficos frouxos e um interesse compartilhado em manter um espaço comunitário agradável.
No fediverso, os usuários podem participar ou criar servidores alinhados com seus interesses ou comunidades. Eles geralmente são administrados por voluntários, que gerenciam os custos e definem as regras localmente. A governança também é federada: embora todos os servidores do ActivityPub, por exemplo, compartilhem um protocolo tecnológico comum, cada um define suas próprias regras e normas e decide se deseja interagir com a rede mais ampla ou se isolar dela. Por exemplo, quando a plataforma Gab, declaradamente favorável aos nazistas, adotou o protocolo do Mastodon em 2019, outros servidores o abandonaram em massa, cortando laços e impedindo que o conteúdo do Gab chegasse aos seus usuários. No entanto, o Gab persistiu e continuou a crescer, destacando uma das limitações importantes da federação: a defederação pode isolar agentes mal-intencionados, mas não os elimina.
As plataformas baseadas em protocolos oferecem um futuro potencial significativo para as mídias sociais: o federalismo digital, em que a governança local se alinha com normas específicas da comunidade, mas permanece vagamente conectada a um todo mais amplo. Para alguns usuários, a escala menor e o maior controle possíveis nas plataformas federadas são atraentes. Na Bluesky — que, por enquanto, ainda é basicamente apenas uma instância administrada pela equipe de desenvolvimento — os especialistas estão desenvolvendo ferramentas para personalizar a experiência. Há listas de bloqueio compartilháveis, feeds com curadoria (exibições que permitem que os usuários vejam as últimas publicações sobre um tópico definido pelo criador, como notícias, jardinagem ou esportes) e ferramentas de moderação gerenciadas pela comunidade que permitem a aplicação de rótulos de categorização para publicações ou contas (“Conteúdo adulto”, “Discurso de ódio” etc.). Isso permite que os usuários personalizem seu ambiente de acordo com seus valores e interesses, dando a eles mais controle sobre as publicações que veem — desde discursos picantes até nudes e política — e quais são ocultadas por trás de um aviso ou completamente escondidas. E embora exista, no momento, um rotulador de conteúdo centralizado controlado pela equipe de moderação do Bluesky, os usuários também podem simplesmente desativá-lo.
Para alguns, esse nível de agência é atraente. Entretanto, a maioria dos usuários nunca altera os padrões de um determinado aplicativo ou tecnologia: o que eles procuram é um alívio do drama, do caos e do desalinhamento ideológico percebido em outros espaços. Eles não se sentem atraídos pela ”moderação composta“ ou pela “governança federada” — muitos, de fato, parecem não entender completamente o que isso significa — mas pela “energia” da instância. Eles querem que as plataformas ”concorram com base no serviço e no respeito“, mesmo que as grandes plataformas, repreendidas por políticos com cacetetes regulatórios, não queiram nada mais do que parar de fazer chamadas de moderação o mais rápido possível. A Bluesky, que tem a missão de criar um protocolo que acabará por tornar a moderação centralizada praticamente irrelevante, teve que quadruplicar o tamanho de sua equipe de moderação rapidamente à medida que os usuários foram chegando.
E é por isso que é importante entender que a migração para longe de árbitros centralizados vem com compensações muito reais. Sem uma governança centralizada, não há uma autoridade única para mediar problemas sistêmicos ou aplicar regras de forma consistente. A descentralização coloca uma carga pesada sobre os administradores de instâncias individuais, em sua maioria voluntários, que podem não ter as ferramentas, o tempo ou a capacidade para resolver problemas complexos de forma eficaz.
Alguns de meus trabalhos, por exemplo, concentraram-se no grande desafio de lidar com conteúdo explicitamente ilegal — imagens de exploração infantil — no fediverso. A maioria dos servidores administrados por voluntários não está preparada para lidar com esses problemas, expondo os administradores a responsabilidades legais e deixando os usuários vulneráveis. A aplicação fragmentada deixa lacunas que os malfeitores, incluindo manipuladores e spammers patrocinados pelo Estado, podem explorar com relativa impunidade.
A verificação de identidade é outro ponto fraco, levando a riscos de falsificação de identidade que as plataformas centralizadas normalmente gerenciam com mais eficiência. Práticas de segurança inconsistentes entre servidores podem permitir que agentes mal-intencionados explorem links mais fracos. Empresas profissionalizadas experientes (como a Threads) têm prática em gerenciar alguns desses problemas, mas precisam de um incentivo econômico para participar.
Embora a federação ofereça mais autonomia aos usuários e promova a diversidade, ela dificulta significativamente o combate a danos sistêmicos ou a coordenação de respostas a ameaças como desinformação, assédio ou exploração. Além disso, como os administradores de servidores só podem moderar localmente — por exemplo, eles só podem ocultar conteúdo no servidor que operam — as publicações de um servidor podem se espalhar pela rede para outros, com pouco recurso.
Publicações que promovem pseudociência prejudicial (”beber água sanitária cura o autismo“) ou exposição da vida pessoal podem persistir sem controle em alguns servidores, mesmo que outros rejeitem ou bloqueiem o conteúdo. As pessoas que se convenceram de que “moderação é censura” podem achar que essa é uma vitória absoluta, mas os usuários de todo o espectro político têm expressado consistentemente o desejo de que as plataformas tratem de contas falsas e conteúdo falso ou violento.
Além dos desafios de lidar com conteúdo ilegal ou prejudicial, a Grande Descentralização levanta questões mais profundas sobre a coesão social: A fragmentação das plataformas exacerbará os silos ideológicos e corroerá ainda mais os espaços compartilhados necessários para o consenso e o compromisso?
Nossos espaços de comunicação moldam nossas normas e políticas. As mesmas ferramentas que agora capacitam diretamente os usuários a selecionar seus feeds e bloquear conteúdo indesejado também podem ampliar as divisões ou reduzir a exposição a perspectivas diferentes. As listas de bloqueios criadas pela comunidade, embora úteis para grupos específicos que buscam evitar trolls, são instrumentos contundentes. Um comentário inadequado, uma piada não contada ou uma animosidade pessoal por parte de um criador de lista pode lançar uma rede ampla e isolada; pessoas com pontos de vista diferenciados sobre questões polêmicas, como a política de aborto, podem se autocensurar para evitar serem “rotuladas erroneamente” e excluídas.
Eventos recentes no Bluesky ilustram esses desafios. Em meados de dezembro, surgiram tensões na plataforma devido à presença repentina de um proeminente jornalista e podcaster que escreve sobre saúde trans de uma forma que alguns dos usuários trans mais ativos da plataforma consideram prejudicial. Em resposta, dezenas de milhares de usuários bloquearam proativamente a conta considerada problemática (os bloqueios são públicos no Bluesky). Os rotuladores da comunidade permitiram que os usuários ocultassem suas publicações. A proliferação de listas de bloqueio compartilhadas incluiu algumas que permitiram aos usuários bloquear em massa os seguidores do comentarista controverso. Os jornalistas, muitos dos quais seguem pessoas com as quais não concordam pessoalmente, comentaram que estavam sendo pegos pela rede ampla; para atenuar isso, os usuários da comunidade sugeriram que eles criassem contas “alternativas” para evitar o envio de sinais indesejados.
As listas de bloqueio compartilháveis, por mais expansivas que sejam, são ferramentas criadas para capacitar os usuários. No entanto, uma parte da comunidade não se sentiu satisfeita com as ferramentas. Em vez disso, ela começou a pressionar o chefe de confiança e segurança da Bluesky, que foi inundado com demandas furiosas por uma resposta de cima para baixo, inclusive por meio de uma petição para banir o jornalista questionável. O jornalista, por sua vez, também entrou em contato com os moderadores — sobre ter sido alvo de linguagem ameaçadora e de exposição indevida de sua vida pessoal. O drama destaca a tensão entre o aumento da possibilidade de os usuários agirem para proteger seus próprios espaços individuais e o desejo persistente de que árbitros centralizados ajam em nome de uma comunidade. E, infelizmente, ilustra os desafios de moderar uma grande comunidade com recursos comparativamente limitados.
A meta idealista do federalismo na experiência americana era manter a unidade da nação e, ao mesmo tempo, permitir o controle local das questões locais. A versão digital disso, no entanto, parece ser uma involução, uma retirada para espaços separados que talvez aumente a satisfação em cada posto avançado, mas que pouco faz para estreitar laços, restaurar normas mútuas ou diminuir a animosidade entre grupos. O que acontece quando as normas divergentes se tornam tão distintas que não podemos mais nem mesmo ver ou participar das conversas uns dos outros? O desafio do consenso não é mais simplesmente difícil, ele é estruturalmente reforçado.
O que está por vir
Quer você goste ou não, os modelos centralizados de política e aplicação de cima para baixo definiram a experiência de mídia social em grandes plataformas como Facebook, Twitter e YouTube por duas décadas. Como disse Nilay Patel, do site The Verge, a moderação de conteúdo é “o produto” dessas plataformas: as decisões tomadas pelas equipes de moderação moldam não apenas o que os usuários veem, mas também o quanto eles se sentem seguros ou ameaçados. Essas políticas tiveram efeitos profundos, não apenas em fenômenos sociais como democracia e coesão da comunidade, mas também na sensação de bem-estar dos usuários individuais. Se a Grande Descentralização continuar, essa experiência mudará.
Embora a governança centralizada em plataformas como Twitter e Facebook tenha se tornado uma frente altamente politizada na guerra cultural, vale a pena perguntar se o sistema estava realmente quebrado. A moderação centralizada, apesar de ser imperfeita, cara e opaca, oferecia regras articuladas, tecnologia sofisticada e equipes profissionais de aplicação. As críticas a esses sistemas frequentemente se originavam de sua falta de transparência ou de erros ocasionais de alto nível, que alimentavam percepções de parcialidade e insatisfação.
Essa crise de legitimação acabou fazendo a balança pender da manifestação para a saída e, agora, a formação de um novo espaço comum on-line apresenta tanto um desafio quanto uma oportunidade. Sim, existe o potencial para espaços on-line verdadeiramente democráticos, livres dos incentivos desalinhados que, até agora, definiram a relação entre plataforma e usuário. Mas a concretização desses espaços exigirá um trabalho significativo.
Há também a questão econômica que se aproxima. As alternativas federadas devem ser financeiramente sustentáveis se quiserem persistir. No momento, a Bluesky é alimentada principalmente por capital de risco; ela abordou a possibilidade de ter assinaturas pagos e recursos no futuro. Mas se as duas últimas décadas de experimentação em mídias sociais nos ensinaram alguma coisa, é que os incentivos econômicos inevitavelmente têm um impacto desproporcional sobre a governança e a experiência do usuário.
Os tecnólogos (inclusive eu) adoram falar sobre inovação mais rápida, melhor privacidade e controle mais granular do usuário como o futuro da mídia social. Mas não é nisso que a maioria das pessoas pensa. A maioria dos usuários quer apenas bons serviços, riscos mínimos para seu bem-estar e um ambiente positivo e divertido em geral. Ironicamente, esses são os estados finais que a moderação tem tentado oferecer. O argumento de que as desvantagens da participação nas mídias sociais — desinformação, exposição da vida pessoal e assédio — são emblemáticas do triunfo da “liberdade de expressão” foi rejeitado por todos; pouquíssimos usuários realmente passam tempo em comunidades “absolutistas” que aceitam tudo; o 8chan, por exemplo, nunca foi muito popular. E, no entanto, nossa incapacidade de chegar a acordos quanto a normas e valores compartilhados, tanto on-line quanto off-line, está nos separando em espaços on-line distintos.
Os usuários que são atraídos pelo Bluesky estão gravitando em torno da cultura da instância principal, que parece um pouco com o antigo Twitter por volta de 2014 — uma época mais simples e menos tóxica. Eles anseiam por um retorno a uma sociedade americana menos divisiva e desagradável. Esse anseio reflete uma verdade mais profunda: as plataformas on-line não apenas refletem nossos valores off-line; elas os influenciam ativamente.
As plataformas federadas nos darão a liberdade de selecionar nossa experiência on-line e de criar comunidades onde nos sentimos confortáveis. Elas representam mais do que uma mudança tecnológica — são uma oportunidade de renovação democrática na esfera pública digital. Ao devolver a governança aos usuários e às comunidades, elas têm o potencial de reconstruir a confiança e a legitimidade de uma forma que as plataformas centralizadas não conseguem mais. No entanto, elas também correm o risco de fragmentar ainda mais a nossa sociedade, pois os usuários abandonam os espaços compartilhados onde uma coesão social mais ampla pode ser forjada.
A Grande Descentralização é um reflexo digitalizado de nossa política polarizada que, daqui para frente, também a moldará.
Renée DiResta é pesquisadora associada na McCourt School of Public Policy em Georgetown. Este artigo foi originalmente publicado pela Noema em 7 de janeiro de 2025. Traduzido para o português por Manolo.