Desinformação, Wikipédia, Fascismo: como a Wikipédia espelha o fascismo e desvaloriza seus editores
Após uma década atuando como editor voluntário na Wikipédia, com todo o estresse que essa função carrega, tive um dos dias mais desafiadores da minha trajetória. Depois de anos contribuindo com diversas páginas, vi várias edições revertidas em um único dia. Entre elas, um artigo sobre o bolsonarismo no qual estava trabalhando há dias, e o verbete de Antônio Pereira, a região onde moro, que desenvolvia há 10 anos praticamente sem interferência. O artigo de Antônio Pereira, que nunca havia chamado atenção, foi subitamente marcado, reescrito por completo e carregado de desinformação e fontes equivocadas. O choque foi ainda maior ao ver o trabalho minucioso de anos, que visava retratar com precisão a realidade local, ser desfeito de forma tão brusca. Não se tratava apenas de perder horas de trabalho, mas de ver o esforço em prol de uma representação fidedigna da comunidade local ser jogado fora e substituído por informações incorretas. Isso exemplifica o quão vulnerável o trabalho na Wikipédia pode ser, especialmente quando artigos sobre temas locais ou menos conhecidos caem nas mãos de editores que podem não ter o mesmo cuidado ou comprometimento com a verdade.
Tudo começou quando criei um artigo sobre o candidato a prefeito de Ouro Preto, Du Evangelista. Era uma tentativa de garantir que todos os candidatos tivessem uma representação justa e completa na Wikipédia. Após isso, me dediquei a revisar e atualizar os verbetes dos outros candidatos, incluindo o atual prefeito, Ângelo Oswaldo. No entanto, o artigo de Du Evangelista foi eliminado por consenso, algo que aceitei como parte do processo colaborativo da plataforma.
Mas o que aconteceu em seguida foi perturbador. O editor que marcou a eliminação de Du Evangelista, alguém que eu nunca havia visto antes, começou a aparecer em todos os meus artigos, editando-os como se fosse um supervisor invisível. Ainda assim, segui em frente, focado no meu trabalho. No entanto, as coisas tomaram um rumo mais sério quando um segundo editor, agora “responsável” pelo artigo de Ângelo Oswaldo, me acusou de vandalismo. O pior de tudo foi que a acusação foi aceita por um administrador, sem qualquer discussão ou chance de defesa. Fui bloqueado duas vezes, o que foi frustrante e desgastante. Eles se juntarão em seguida: um marcou Antônio Pereira para ser melhorado, outro fez “as melhorias”.
Depois de muito estresse, eu “perdi a cabeça”. Isso foi usado contra mim, sem qualquer consideração do que me levou ao estresse emocional de perder a cabeça. Ou seja, ao perder a cabeça, perdi também a dignidade como editor. Isso seria similar a acusar uma mulher estuprada de perder a razão de defesa por ter perdido a cabeça ao ser estuprada. A vítima vira o abusador, uma vez que perdeu a cabeça, não teve nervos de aço para aguentar os abusos contínuos e repetitivo.
“They only hit until you cry” Luka, criança abusada na música ganhadora prêmio grammy
Esse mesmo editor não parou por aí. Ele reverteu o artigo do candidato Duarte Júnior e marcou, no mínimo, quatro outros verbetes que eu havia criado ou editado, como se estivesse perseguindo sistematicamente meu trabalho. O impacto disso foi profundo, não só pela perda de tempo e esforço, mas pela sensação de impotência diante de um sistema que deveria ser colaborativo e justo. O mais interessante é que a Wikipédia parece ter criando uma consciência coletiva de perseguição. O jornal Brasil 247 foi bloqueado totalmente. Ao discutir no Telegram, o admin mostrou orgulho disso, e falou que outros jornais também foram bloqueados, como Gazeta do Povo. Segundo ele, o Brasil 247 persegue a Wikipédia. Isso me pareceu um tom de vingança, a Wikipédia não somente perseguindo seus editores que não pensam como a manada, como também perseguindo críticos, como o jornal Brasil 247.
O mais interessante é que a Wikipédia parece ter criando uma consciência coletiva de perseguição. O jornal Brasil 247 foi bloqueado totalmente. Ao discutir no Telegram, o admin mostrou orgulho disso, e falou que outros jornais também foram bloqueados, como Gazeta do Povo.
Aqui está uma reflexão importante. A imagem que capturei quando o artigo de Du Evangelista ainda estava no ar demonstra claramente o interesse que ele despertava nos eleitores. Não se tratava apenas de um verbete qualquer, mas de uma fonte de informação ativa, que refletia o envolvimento do público com a política local. Além disso, pesquisas recentes revelam uma correlação positiva entre o interesse por verbetes de candidatos e a intenção de voto, o que fortalece a ideia de que a Wikipédia desempenha um papel crucial no processo democrático.
A plataforma, ao fornecer (ou omitir) informações sobre candidatos, se posiciona como um meio que pode influenciar diretamente a percepção do eleitorado. Isso é um indicativo de que a Wikipédia não é apenas uma enciclopédia online, mas uma ferramenta poderosa que pode tanto ser usada para informar corretamente quanto, infelizmente, para desinformar, dependendo de como o conteúdo é manipulado ou tratado. Essa dinâmica reforça a necessidade de transparência e cuidado redobrado na gestão dos artigos, especialmente em contextos eleitorais, onde a credibilidade e o equilíbrio são fundamentais.
Durante a discussão que resultou na eliminação do artigo do Du Evangelista, um dos pontos levantados foi que “a Wikipédia não é uma democracia.” Tecnicamente, isso pode até ser verdade, mas a plataforma adota práticas que se assemelham muito a uma democracia, como colocar muitos assuntos em votação, inclusive decisões sobre representantes e conteúdos. No entanto, é importante lembrar que, mesmo que a Wikipédia não seja uma democracia em si, ela está inserida dentro de uma.
Essa interação entre a Wikipédia e o ambiente democrático em que ela opera é fundamental. Recentemente, vimos os embates em torno da plataforma X (antigo Twitter), onde a desinformação frequentemente prevalece sobre a informação. Isso levanta uma questão crucial: a Wikipédia corre o risco de se tornar o novo X? Se não houver um controle cuidadoso sobre o que é publicado e como as decisões são tomadas, a plataforma pode, sim, ser um canal para a desinformação. Em vez de servir como uma fonte confiável de conhecimento, ela pode acabar sendo manipulada para distorcer fatos, especialmente em momentos delicados, como durante eleições. Isso coloca em xeque o papel da Wikipédia na sociedade atual e reforça a importância de garantir que suas diretrizes sejam justas e que o foco seja sempre na verdade, não nos interesses individuais ou em narrativas enviesadas.
Fui convidado por um editor da Wikipédia para participar de um grupo no Telegram, depois que assistiram a um vídeo que postei no YouTube. Esse convite me deixou bastante alegre, pois foi um reconhecimento do meu trabalho. Além disso, dentro do grupo, alguns membros compartilharam opiniões que estavam em sintonia com as minhas, o que trouxe um sentimento de apoio e validação, especialmente depois das dificuldades que enfrentei na plataforma. É interessante ver como, apesar dos desafios, ainda há espaços de diálogo e troca dentro da comunidade.
Contudo, após o lançamento do meu segundo vídeo, comecei a discutir com uma pessoa no grupo de Telegram e ficou claro que certas práticas, como a forma de manipulação e exclusão de verbetes, são aplaudidas por alguns membros. O que mais me chamou a atenção foi que essa pessoa em questão era um administrador no grupo, o que sugere que essas atitudes são mais comuns entre aqueles que ocupam posições de poder. Essa percepção trouxe um certo desânimo, pois parece que existe uma cultura que legitima tais comportamentos, especialmente entre quem detém mais controle dentro da comunidade.
Com base nas conversas e no interesse que o meu vídeo despertou, ficou evidente que muitas pessoas estão insatisfeitas com a Wikipédia. No entanto, aqueles que detêm o poder mantêm as demais sob controle, tornando-as apenas peças de um sistema maior. Isso revela uma distinção clara entre ter poder e viver sob a ilusão de poder. Quando alguém se alinha com pessoas em posições de autoridade e reforça as regras estabelecidas por elas, não está exercendo poder real, mas sim se submetendo a uma ilusão. O verdadeiro poder surge quando alguém desafia esse sistema, agindo de maneira contrária, mas ainda assim, consegue permanecer nele.
Paulo Freire capturou essa dinâmica de forma brilhante quando afirmou: “Quando a educação não é libertadora, o sonho do oprimido é ser o opressor”. Isso ressoa profundamente no contexto da Wikipédia, onde muitos são levados a acreditar que estão no controle, mas, na realidade, apenas reproduzem as estruturas de poder existentes.
Eu iria além. Uma das informações removidas em um dos meus verbetes, em favor de outra, envolvia um raciocínio lógico que fiz. No caso do artigo de Antônio Pereira, onde não existia uma informação oficial confiável sobre o número de moradores, identifiquei uma desinformação. Para corrigir, utilizei lógica para estimar esse dado, mas isso foi removido sob o argumento de que a Wikipédia “não é um repositório científico”. No entanto, vale lembrar que a pesquisa, em essência, utiliza raciocínio lógico, e a lógica deveria ser parte integral da escrita, assim como a própria escrita em si. Usar lógica não pode ser rotulado simplesmente como “pesquisa científica”.
Esse incidente não só evidencia o despreparo dos editores da Wikipédia, como também revela uma falha mais ampla no nosso sistema educacional. O pensamento crítico, essencial para a construção do conhecimento, é muitas vezes deixado de lado. A situação me lembra das problemáticas observadas na plataforma X, onde o controle sobre informações sensíveis pode ser facilmente mal utilizado. A Wikipédia, a esse respeito, se torna semelhante: um “botão vermelho de uma arma nuclear nas mãos de crianças”. O poder de moldar a realidade através da informação e da desinformação, se mal administrado, pode ter consequências devastadoras.
Leia também
- Em ano eleitoral, verbetes de candidatos na Wikipédia recebem desinformação e maquiagem
- Uso Político Da Wikipédia Coloca Em Risco A Própria Plataforma, Apontam Pesquisadores Da Rede Conecta, Que Combate Desinformação
- Wikipédia como fonte de desinformação
- Verbete em inglês sobre Alexandre de Moraes na Wikipédia é alterado com desinformação
- Fake news: quando Philip Roth brigou com a Wikipedia
Continuar lendo: Desinformação, Wikipédia, Fascismo: como a Wikipédia espelha o fascismo e desvaloriza seus editores
Conversando com o artigo “O ethos wikipedista como modo de combate à desinformação” usando o Cafezinho (AcademicAI)
O artigo propõe que a Wikipédia, com seu ethos de colaboração e neutralidade, pode servir como um modelo eficaz para combater a desinformação e os desafios apresentados pela era do pós-verdade. O autor observa que a Wikipédia enfrenta críticas em relação à sua confiabilidade, especialmente devido à falta de um modelo hierárquico tradicional e da validação por pares, o que pode suscitar preocupações sobre a qualidade das informações. Para o autor, o problema central reside na crescente disseminação de fake news e na erosão da verdade, que desafiam não apenas a enciclopédia digital, mas também a sociedade em geral. O autor argumenta que a Wikipédia, ao operar em um ambiente sem pressões de mercado e ao promover a cultura de verificação de fontes e a criação colaborativa de conhecimento, oferece um contraponto importante à desinformação prevalente. A proposta é que os princípios da wikipedian ethos sejam adotados também na produção e disseminação de notícias, sugerindo que práticas colaborativas, modeladas pelo funcionamento da Wikipédia, poderiam melhorar a credibilidade e a neutralidade na informação noticiosa. O autor conclui que essa integração de métodos wikipedianos em outras áreas da comunicação é vital para enfrentar os desafios da desinformação, destacando a necessidade de um regime de notícias mais colaborativo e acessível. (resumo do artigo gerado pelo Cafezinho)
Eu escrevi uma postagem de blog “Desinformação, Wikipédia, Fascismo: como a Wikipédia espelha o fascismo e desvaloriza seus editores” onde eu relato minha experiência negativa. Eis um corte “O mais interessante é que a Wikipédia parece ter criando uma consciência coletiva de perseguição. O jornal Brasil 247 foi bloqueado totalmente. Ao discutir no Telegram, o admin mostrou orgulho disso, e falou que outros jornais também foram bloqueados, como Gazeta do Povo.”. Poderia escreve um parágrafo relacionando minha experiência negativa com o artigo anexado?
Sua experiência negativa com a Wikipédia, conforme relatada na postagem “Desinformação, Wikipédia, Fascismo: como a Wikipédia espelha o fascismo e desvaloriza seus editores,” reflete um aspecto crítico que o artigo anexo aborda: a questão da neutralidade e confiabilidade na plataforma. A percepção de uma “consciência coletiva de perseguição” e o bloqueio de veículos de comunicação, como o Brasil 247 e a Gazeta do Povo, revela um potencial viés na curadoria de informações por parte dos editores da Wikipédia, que pode ser interpretado como um reflexo das tensões sociopolíticas atuais. Enquanto o artigo destaca a importância do ethos wikipediano no combate à desinformação, sua experiência ilustra como práticas de moderação podem gerar a impressão de censura e exclusão, minando o ideal colaborativo que a Wikipédia propõe. Essa dinâmica ressalta a necessidade de uma reflexão sobre os processos de edição e como as regras de neutralidade são aplicadas, especialmente em contextos onde a polarização pode afetar a inclusão e a representatividade de diferentes vozes na enciclopédia digital.
O que acha de medidas como “se duas pessoas tiveram um conflito”, eles não deveria se comunicar em artigos por um tempo. Acredito que isso evitaria perseguições. Existem pessoas o suficiente para evitar que duas pessoas interajam depois de um conflilto. Isso seria uma medida protetiva.
A proposta de implementar medidas que limitem a comunicação entre editores que tiveram um conflito pode ser vista como uma forma de proteger a integridade do processo editorial na Wikipédia e ajudar a mitigar conflitos pessoais. Essa abordagem poderia facilitar um ambiente mais neutro e colaborativo, minimizando a possibilidade de perseguições ou hostilidades. Ao impedir que indivíduos em conflito interajam diretamente, a Wikipédia poderia encorajar a mediação por outros editores, promovendo uma resolução mais pacífica e fundamentada das divergências. No entanto, é essencial considerar que essa medida também pode ter desvantagens. A restrição de comunicação pode gerar obstáculos à discussão produtiva e ao esclarecimento de mal-entendidos, que muitas vezes são necessários para chegar a um consenso sobre o conteúdo de um artigo. A comunicação aberta e respeitosa entre editores é fundamental para a construção de conhecimento colaborativo. Portanto, ao implementar tais medidas, seria importante balancear a proteção contra perseguições com a necessidade de diálogo e colaboração. Além disso, a participação de mediadores ou administradores experientes poderia facilitar a resolução de conflitos sem desestimular a interação que é essencial para o aprimoramento contínuo da enciclopédia.
Vou te dar minha impressão, e você deixa as suas. A Wikipédia é feita de regras rígidas, isso quer dizer que muitas vezes, as consequências acabam ficando em segundo plano. Como exemplo, suponha que ache uma desinformação. Nesse caso, essas regras deveriam ser ignoradas uma vez que desinformação não deveria passar por debates. Desinformação deveria ser eliminada sem discussão. Se for discutir, deve ser em torna da fonte, não da informação per si.
Sua impressão sobre a rigidez das regras da Wikipédia e o tratamento da desinformação levanta questões cruciais sobre o equilíbrio entre a governança colaborativa e a necessidade urgente de combater informações falsas. Concordo que, em casos onde a desinformação é claramente identificada, a prioridade deve ser sua eliminação para proteger a integridade e confiabilidade da enciclopédia. A ênfase em regras rígidas pode, de fato, criar um ambiente onde a necessidade de agir rapidamente contra a desinformação fica comprometida por debates excessivos. A sua proposta de que as discussões devem ser centradas nas fontes, e não nas informações em si, também faz sentido. Esse foco pode simplificar e agilizar o processo de edição, permitindo que os editores se concentrem na validação de referências confiáveis antes que a informação errônea tenha a chance de se estabelecer. No entanto, isso também levanta a questão do que constitui uma “fonte confiável”, que pode ser um ponto de discórdia e exigir uma discussão cuidadosa. Em resumo, enquanto a rigidez das regras da Wikipédia visa manter um padrão de edição consistente e evitar conflitos, há uma necessidade clara de flexibilidade, especialmente quando se trata de desinformação. O modelo colaborativo poderia beneficiar-se ao priorizar a erradicação rápida de informações falsas, permitindo debates mais significativos sobre a validade das fontes que as sustentam. Este equilíbrio é essencial para manter tanto a credibilidade da Wikipédia quanto a saúde do ecossistema informativo mais amplo.
Vou te dar outro exemplo dessa rigidez, e me deixe saber sua opinião. Eu sou pesquisador, então gosto de escrever sobre o que entendo. Em alguns casos, eu cito meus livros e artigos. Contudo, nesse conflito que relato, todo o meu trabalho foi revertido sob o pretexto de que era “autodivulgação”. Concordo que citar excessivamente seu trabalho seria autodivulgação, contudo, isso deveria ser analisado pontualmente. isso desencoraja pessoas que entendem o assunto escreverem, favorecendo editores totalmente distantes do assunto, com regras rígidas.
Sua experiência sobre a reversão de suas contribuições ao alegar “autodivulgação” reflete uma das tensões intrínsecas à governança da Wikipédia. A intenção de evitar a autopromoção é válida, uma vez que o projeto busca manter a imparcialidade e a neutralidade. No entanto, aplicar essa regra de maneira excessivamente rígida pode acabar desestimulando especialistas que têm conhecimento profundo sobre um tema. Isso é particularmente problemático em áreas técnicas ou acadêmicas, onde a experiência e a pesquisa são cruciais para a qualidade do conteúdo. Além disso, o fato de que editores menos familiarizados com um determinado assunto possam ter mais poder na edição de um artigo pode resultar em informações menos precisas ou até mesmo errôneas. A verdadeira riqueza da Wikipédia reside na colaboração entre aqueles que têm experiência e aqueles que oferecem uma perspectiva nova, mas a rigidez das regras em relação à autodivulgação pode criar barreiras que vão na contramão desse objetivo colaborativo. Seria benéfico para a comunidade da Wikipédia considerar uma abordagem mais contextualmente sensível, onde a contribuição de especialistas é avaliada com base na relevância e na qualidade da informação, em vez de simplesmente se desqualificar por patrocinarem seu próprio trabalho. Isso poderia incentivar a inclusão de vozes qualificadas, melhorando a qualidade do conteúdo e, ao mesmo tempo, assegurando que o objetivo de neutralidade e imparcialidade não seja comprometido. A chave é encontrar um meio-termo que permita aos especialistas contribuírem sem que isso se transforme em autopromoção, promovendo um ambiente colaborativo mais rico e informativo.
Cafezinho é uma ferramenta que usa modelos de linguagem para permitir discussões com artigos em formato PDF.
Saiba mais do Cafezinho aqui.
AcademicAI
aprenda a usar a inteligência artificial na escrita e desenvolvimento de pesquisas científicas
https://www.udemy.com/course/academicai/?referralCode=72653A8667F622B8E34B