Finalmente chegamos ao início da era das máquinas? É difícil ainda prever o impacto das novas ferramentas automatizadas pelo mundo; contudo, desde já, bots de IA estão fazendo a Wikipedia gastar 50% mais banda de dados.
O aumento está sendo observado desde janeiro de 2024 e está registrando altos números de consumo de banda larga para downloads de conteúdos multimídia, de acordo com comunicado dos responsáveis pelo ambiente.
As informações foram confirmadas pela Fundação Wikimedia, e crawlers de inteligência artificial (IA) parecem ser a origem do problema. Para quem está por fora, trata-se de programas automatizados responsáveis por extrair imagens, textos, vídeos e arquivos variados de licença aberta para treinamento de IA generativa.
A situação é problemática porque esse tráfego descontrolado pode atrapalhar significantemente a experiência dos usuários humanos — as pessoas que realmente precisam da plataforma consultas.
Em eventos muito populares, a situação é ainda pior. Quando Jimmy Carter faleceu em dezembro de 2024, a procura pelo seu vídeo de debate presidencial com Ronald Reagan ficou em alta, gerando lentidões excessivas.
A fundação Wikimedia ressaltou: “O volume gerado por bots de raspagem de dados é inédito e traz riscos e custos crescentes.”
Os responsáveis pelo projeto mencionaram algumas características que distinguem os humanos das máquinas. A característica de buscar tópicos repetidos e específicos, normalmente, é feita por usuários “de verdade”, de carne e osso.
Como os usuários interessados precisam “competir” nos servidores com bots, fica uma situação desleal para os humanos, porque é impossível superar a velocidade e eficiência da inteligência artificial.
Leia mais
- Simples e avançado, Bloco de Notas ganha integração de IA com Copilot
- IA entra em consultas médicas e fortalece relação com pacientes
- Qualcomm adquire divisão de IA generativa da VinAI

Prejudicando usuários reais, bots de IA estão fazendo a Wikipedia gastar 50% mais banda
Já os crawlers de IA são conhecidos por consumir páginas massivamente, inclusive artigos pouco acessados que necessitam ser recuperados do data center principal, o que é mais lento e caro para os envolvidos.
Cerca de 65% do tráfego que necessita de alto uso de recursos é originado de ferramentas de IA.
São enfrentadas interrupções constantes pela equipe de Confiabilidade do Site, sendo obrigados a bloquear os crawlers antes que eles, de fato, piorem consideravelmente a experiência humana.
O problema real do uso massivo de IA é a falta de engajamento gerado por essas ferramentas. Apesar do conteúdo ser livre, a infraestrutura sobrevive por meio de doações.
Como bots não engajam, mas estão consumindo parte dos recursos dos usuários humanos e tornando a experiência deles pior, acaba sendo um problema para todo o ecossistema que a Wikimedia alimenta.
Como o tráfego excessivo relacionado ao uso de IA não demonstra sinais de desaceleração, a Wikimedia está buscando maneiras de estabelecer modelos sustentáveis para os desenvolvedores e reutilizadores dos seus dados no próximo ano fiscal.
É necessário buscar maneiras para mitigar este problema urgentemente, pois a chuva de bots está ameaçando a missão de democratizar o conhecimento livre.
E aí? O que achou das informações? Preocupantes? Compartilhe o seu ponto de vista nesta publicação e continue acompanhando o Mundo Conectado!
Fonte: engadget

parceria de peso
OPPO e Google expandem parceria para impulsionar a IA móvel