Com a ascensão das ferramentas de redação da IA, os editores da Wikipedia tiveram que lidar com um ataque de conteúdo gerado pela IA, cheio de informações falsas e citações falsas. A comunidade de voluntários da Wikipedia já se mobilizou para lutar contra a AI Slop, algo que o diretor de produtos da Wikimedia Foundation, Marshall Miller, compara a uma espécie de resposta de “sistema imunológico”.
“Eles estão vigilantes para garantir que o conteúdo permaneça neutro e confiável”, diz Miller. “À medida que a Internet muda, como as coisas como a IA aparecem, esse é o sistema imunológico que se adapta a algum tipo de desafio novo e descobrindo como processá -lo.”
Uma maneira pela qual os wikipedistas estão passando pela sujeira é com a “exclusão rápida” de artigos mal escritos, conforme relatado anteriormente por 404 Mídia. Um revisor da Wikipedia que expressou apoio à regra disse que está “inundado sem parar com rascunhos horrendos”. Eles acrescentam que a rápida remoção “ajudaria muito os esforços para combatê -lo e economizar inúmeras horas pegando o lixo eletrônico deixa para trás”. Outro diz que as “mentiras e referências falsas” dentro das saídas de IA tomam “uma quantidade incrível de tempo experiente no editor para limpar”.
Normalmente, os artigos sinalizados para remoção na Wikipedia entram em um período de discussão de sete dias durante o qual os membros da comunidade determinam se o site deve excluir o artigo. A regra recém-adotada permitirá que os administradores da Wikipedia contornem essas discussões se um artigo for claramente gerado pela IA e não foi revisado pela pessoa que a envia. Isso significa procurar três sinais principais:
- Escrevendo direcionado ao usuário, como “Aqui está o seu artigo da Wikipedia sobre …” ou “Espero que isso ajude!”
- Citações “sem sentido”, incluindo aquelas com referências incorretas a autores ou publicações.
- Referências inexistentes, como Links Dead, ISBNs com somas de verificação inválidas ou DOIs não solucionáveis.
Esses não são os únicos sinais de wikipedistas de IA estão cuidando. Como parte da limpeza da IA do Wikiproject, que visa enfrentar um “problema crescente de conteúdo sem sobrevivência e mal gerado”, os editores montam uma lista de frases e características de formatação que os artigos escritos por chatbot normalmente exibem.
A lista vai além de chamar o uso excessivo de EM Dashes (” -“) que se associaram aos chatbots da IA e até inclui um uso excessivo de certas conjunções, como “Além disso”, bem como a linguagem promocional, como descrever algo como “tirar de tirar o fôlego”. Existem outros problemas de formatação que a página também aconselha os wikipedistas a procurar, incluindo aspas encaracoladas e apóstrofos em vez de retas.
No entanto, a página rápida de remoção da Wikipedia observa que essas características “não devem, por conta própria, servir como a única base” para determinar que algo foi escrito pela IA, tornando -o sujeito à remoção. A política de exclusão rápida não é apenas para o conteúdo de inclinação gerado pela AI também. A enciclopédia on -line também permite a rápida remoção de páginas que perseguem seu assunto, contêm fraudes ou vandalismo, ou defendem “texto incoerente ou sem sentido”, entre outras coisas.
A Wikimedia Foundation, que hospeda a enciclopédia, mas não tem uma mão na criação de políticas para o site, nem sempre viu o olhar para sua comunidade de voluntários sobre a IA. Em junho, a Fundação Wikimedia fez um experimento que colocou resumos gerados pela IA no topo dos artigos depois de enfrentar a reação da comunidade.
Apesar dos diferentes pontos de vista sobre a IA em toda a comunidade da Wikipedia, a Wikimedia Foundation não é contra usá-la, desde que resulte em uma escrita precisa e de alta qualidade.
“É uma faca de dois gumes”, diz Miller. “Isso está fazendo com que as pessoas possam gerar conteúdo de menor qualidade em volumes mais altos, mas a IA também pode ser uma ferramenta para ajudar os voluntários a fazer seu trabalho, se o fizermos certo e trabalhar com eles para descobrir as maneiras certas de aplicá -lo”. Por exemplo, a Wikimedia Foundation já usa a IA para ajudar a identificar revisões de artigos que contêm vandalismo, e sua estratégia de IA recentemente publicada inclui apoiar editores com ferramentas de IA que os ajudarão a automatizar “tarefas repetitivas” e tradução.
A Wikimedia Foundation também está desenvolvendo ativamente uma ferramenta não movida a AI, chamada Edit Check, voltada para ajudar os novos colaboradores a se alinharem com suas políticas e diretrizes de redação. Eventualmente, isso pode ajudar a aliviar o ônus das submissões não revisadas de IA também. No momento, a verificação de edição pode lembrar os escritores de adicionar citações se tiverem escrito uma grande quantidade de texto sem um, além de verificar seu tom para garantir que os escritores permaneçam neutros.
A Wikimedia Foundation também está trabalhando para adicionar uma “verificação de pasta” à ferramenta, que pedirá aos usuários que colaram um grande pedaço de texto em um artigo, se eles realmente o escreveram. Os colaboradores enviaram várias idéias para ajudar a Wikimedia Foundation a desenvolver a ferramenta também, com um usuário sugerindo pedir aos suspeitos de autores de IA que especifiquem quanto foi gerado por um chatbot.
“Estamos acompanhando nossas comunidades sobre o que elas fazem e o que acham produtivo”, diz Miller. “Por enquanto, nosso foco no uso do aprendizado de máquina no contexto de edição é mais ajudar as pessoas a fazer edições construtivas e também em ajudar as pessoas que estão patrulhando edições a prestar atenção aos certos”.