A inteligência artificial tornou-se uma ferramenta cotidiana para milhões de pessoas. Hoje, muitos a utilizam para escrever e-mails, resumir documentos ou traduzir textos em questão de segundos. No entanto, essa velocidade tem um lado menos visível: os sistemas generativos também podem cometer erros, inventar dados ou alterar fontes sem que o usuário perceba imediatamente.
Quando esses erros aparecem em uma das maiores enciclopédias do mundo, a situação muda completamente. Foi exatamente isso que aconteceu na Wikipédia com uma série de traduções feitas com a ajuda de IA.
O episódio inicial
Tudo começou dentro da própria comunidade da Wikipédia. Alguns editores começaram a revisar traduções recentes e detectaram algo estranho: certos textos incluíam frases que não constavam nas fontes citadas ou referências que pareciam inconsistentes com o que o artigo afirmava.
Segundo a 404 Media, essas traduções faziam parte de um projeto conduzido por uma organização que buscava expandir a presença do conteúdo da Wikipédia em diferentes idiomas, utilizando modelos de linguagem para acelerar o processo.
Quando a tradução inventa
À medida que os editores começaram a examinar essas traduções mais de perto, os problemas se tornaram mais evidentes. Um dos casos citados pela 404 Media é um rascunho de artigo sobre a família real francesa, os Bourdonnaye. O texto traduzido incluía uma referência a um livro e a uma página específica para explicar as origens da família.
No entanto, quando o editor Ilyas Lebleu, conhecido na Wikipédia como Chaotic Enby, verificou a fonte, descobriu que a página citada estava incorreta. Lebleu acrescentou que, em uma rápida revisão de várias traduções, também encontrou referências trocadas, frases sem fonte e casos em que parágrafos baseados em material não relacionado foram adicionados.
O artigo foi publicado ou permaneceu em versão preliminar?
O caso também levantou uma questão relevante: se esses erros já haviam aparecido em artigos publicados ou se foram detectados durante o processo de revisão. Pelo menos um dos exemplos problemáticos foi identificado em um rascunho da tradução, permitindo que os editores o revisassem antes da versão final.
Com o material fornecido aqui, no entanto, é impossível dizer quantas traduções problemáticas foram de fato publicadas e quantas permaneceram em revisão.
Quem está por trás dessas traduções?
Aqui aparece o nome Open Knowledge Association (OKA), uma organização sem fins lucrativos que afirma trabalhar para aprimorar a Wikipédia e outras plataformas abertas. De acordo com o site da organização, seu modelo consiste em oferecer bolsas mensais a colaboradores e tradutores que trabalham em tempo integral expandindo o conteúdo da enciclopédia e "utilizar IA (grandes modelos de linguagem) para automatizar a maior parte do trabalho".
Segundo a 404 Media, os editores que investigaram o projeto concluíram que ele dependia de terceirizados.
Resposta dos editores
À medida que mais exemplos problemáticos surgiam, a comunidade da Wikipédia decidiu intervir. Os editores revisaram o funcionamento do projeto de tradução e, por fim, estabeleceram novas restrições para os participantes. Tradutores afiliados à OKA que acumularem quatro advertências por conteúdo não verificável em um período de seis meses poderão ser bloqueados sem aviso prévio caso ocorra um novo incidente.
Além disso, o conteúdo adicionado por um tradutor que for posteriormente bloqueado poderá ser removido preventivamente, a menos que outro editor de boa reputação se responsabilize por revisá-lo.
Resposta da OKA
A organização no centro do debate também apresentou sua versão dos fatos. Jonathan Zimmermann, fundador e presidente da Open Knowledge Association, explicou ao veículo de comunicação mencionado anteriormente que os tradutores do projeto são pagos por hora e que não há uma meta fixa de artigos por semana. Ele também admitiu que "erros acontecem", mas afirmou que o sistema inclui verificação humana e checagem de fontes.
Após a discussão na Wikipédia, acrescentou, a organização está introduzindo uma segunda revisão usando um modelo de IA diferente para detectar possíveis erros antes da publicação e está considerando adicionar mecanismos de revisão por pares, se necessário.
Imagens | Oberon Copeland @veryinformed.com | Luke Chesser
Ver 0 Comentários