Wikipédia:Esplanada/propostas/Bots de interwikis e wikidata (7mar2013)
Bots de interwikis e wikidata (7mar2013)
Com o advento do(a) Wikidata ao nosso projecto, há que fazer os ajustes necessários às políticas. Um dos grandes problemas que se colocam neste momento, são os bots de iw que os vão adicionando/removendo/substituindo, e, enquanto não forem todos actualizados, haverá bots a removerem iw's, seguidos por outros a colocá-los. Na en, faz um mês que edições que consistam somente na remoção de iw não é permitida, sendo a sua remoção incluída noutras edições, tanto para bots como para *humanos* (são consideradas edições menores). Por aqui convém chegar-mos a uma decisão sobre o caminho a tomar. Permitimos que a remoção possa ser feita isoladamente?
Outra questão mais urgente, prende-se com a batalha que pode surgir entre os bots, caso continuem desactualizados por muito tempo. Um dia deve ser o suficiente para todos os scripts estarem actualizados, portanto que dizem a dar um compasso de espera, até x horas de amanhã ou no início de sábado, data a partir da qual bots que não estejam a funcionar correctamente possam ser impedidos de editar por um filtro de edições, e depois bloqueados? Posso adicionar um filtro num dos meus bots de irc, e avisar numa página quando algum bot tenta editar erroneamente. Alchimista Fala comigo! 00h22min de 7 de março de 2013 (UTC)
- Sim, pra ontem. Outras wikis já estão fazendo isso a alguns dias. Até acho que seria bom começar logo, porque quanto antes acredito que seja mais fácil de se acostumar com o novo sistema. Érico Wouters msg 02h25min de 8 de março de 2013 (UTC)
- Será necessário verificar antes da retirada de interwikis se realmente a página está correctamente ligada no Wikidata. Quanto aos bots, será preciso mandar mensagens a avisar os bots/ operadores? Ou assume-se que eles já estão informados? Acho que é melhor bloquear directamente do que usar filtro de edição, pois assim os operadores apercebem-se mais rapidamente do sucedido. GoEThe (discussão) 10h15min de 8 de março de 2013 (UTC)
- No que diz respeito a remoção de links apenas quando já existen no Wikidata, há dois scripts que podem ser úteis (para edições manuais, em vez de robóticas). Ver:
- Helder 11h34min de 8 de março de 2013 (UTC)
- Foi amplamente anunciada a implementação do wikidata, os bots por agora já pararam de adicionar no domínio principal, o que me parece que pelo menos os scripts estão actualizados. Sobre o avisar, estou indeciso, pois já houve vários avisos, discussões nas listas de tech e anúncios nos vários projectos. Parece-me difícil um operador de bot estar desinformado sobre a implementação total, até porque os que tinham bots de iw's na it e na en foram avisados. Neste momento há um Multi-Mantainer-project ( projecto de multiplos devs) no toolserver a operar bots de iw's, eles estão mais por dentro das alterações, por isso os scripts estão a ser desenvolvidos para verificarem se os iw's já existem no wikidata. Há ainda a a discução em meta:Requests for comment/Wikidata rollout and interwiki bots. Portanto para mim as questões que ficam são:
- Bots de iw com flag, e que deixam de editar, mantemos a flag, remove-mos ou solicitamos que informem se pretendem manter a flag fazendo outra tarefa, ou que seja removida.
- A remoção de iw's, permitimos que possa ser feita isoladamente, ou seja, que qualquer pessoa ou bot, possa percorrer todos os artigos e remover somente os iw's, ou então deve ser efectuada em conjunto com outras alterações (checkwiki, por exemplo, seria mais um erro menor), ou que somente um grupo determinado de bots o pode fazer? Alchimista Fala comigo! 17h42min de 8 de março de 2013 (UTC)
- Foi amplamente anunciada a implementação do wikidata, os bots por agora já pararam de adicionar no domínio principal, o que me parece que pelo menos os scripts estão actualizados. Sobre o avisar, estou indeciso, pois já houve vários avisos, discussões nas listas de tech e anúncios nos vários projectos. Parece-me difícil um operador de bot estar desinformado sobre a implementação total, até porque os que tinham bots de iw's na it e na en foram avisados. Neste momento há um Multi-Mantainer-project ( projecto de multiplos devs) no toolserver a operar bots de iw's, eles estão mais por dentro das alterações, por isso os scripts estão a ser desenvolvidos para verificarem se os iw's já existem no wikidata. Há ainda a a discução em meta:Requests for comment/Wikidata rollout and interwiki bots. Portanto para mim as questões que ficam são:
Serão permitidas edições em massa de humanos para ficar removendo os interwíkis? Acho que se deveria evitar isso, pois sobrecarrega os vigiados com muitas edições de caráter robótico que não podem ser facilmente ocultadas como as feitas por robôs. – Opraco (discussão), às 21h35min de 9 de março de 2013 (UTC)
- Sim, no mínimo que marquem como edição mínima. GoEThe (discussão) 22h25min de 9 de março de 2013 (UTC)
- Sim quer dizer "sim, podem ser feitas" ou "sim, devem ser evitadas"? – Opraco (discussão), às 22h32min de 9 de março de 2013 (UTC)
- Sim, deve ser evitado. GoEThe (discussão) 16h16min de 10 de março de 2013 (UTC)
- Sim quer dizer "sim, podem ser feitas" ou "sim, devem ser evitadas"? – Opraco (discussão), às 22h32min de 9 de março de 2013 (UTC)
- Também acho que deveria ser evitado fazer várias edições sucessivas com essa finalidade. Se eu não me engano, pode-se alterar o filtro de edições existente para que proíba que se exceda um certo limite de quantidade por minuto (para quem não for robô). Helder 22h41min de 9 de março de 2013 (UTC)
- Quem decide isso? As edições manuais são uma coisa, outras são as semi-automáticas. A Wikidata já foi implementada há dias, e se tivéssemos à espera dos robôs ainda nenhum artigo tinha sido actualizado... Os utilizadores não precisam de programar um robô para efectuar este tipo de tarefa, desde que o façam de forma correcta ao certificar-se que a Wikidata está actualizada e providencia todas as ligações interlínguas outrora disponibilizadas através de código wiki. Existem várias formas de auxiliar os robôs, como podem ler na versão inglesa da página sobre o Wikidata, e nenhuma delas é proibida ou censurada lá. Só robôs a fazerem a transição? Colocar filtros ou impedir utilizadores correntes de fazer a tarefa só porque não têm um robô? Isso é um disparate completo. VítoR™ • (D) 01h39min de 10 de março de 2013 (UTC)
Eu abri uns 10 artigos agora para checar se os interwikis da barra lateral são iguais aos interwikis que constam no texto e... todos que abri são iguais. Me parece que na implementação o sistema já considerou isso de alguma forma, vou checar mais uns 20 artigos com interwikis caso eu encontre algum caso que esteja diferente eu comento aqui. Se tiver tudo igual pode ser tudo removido sem problemas. JAMAL 10h35min de 10 de março de 2013 (UTC)
- Todos que abri estão exatamente iguais, a barra lateral com o texto. Percebi ontem que algumas políticas e recomendações ainda não estava habilitado o Wikidata, me parece que está sendo liberado aos poucos, não entendi muito bem, aliás abri esse Fenômeno_físico agora e não está habilitado na barra lateral, pensei que iria ser habilitado de uma vez para a Wikipédia inteira. Mas de qualquer forma todos que vi que estão habilitados estão com os interwikis iguais ao texto. Se onde está habilitado está igual, então pode ser programado um bot para checar se está habilitado e se sim, limpar os interwikis do texto. E não se importar se os usuários fizerem isso manualmente pois não estará havendo perda de informação. JAMAL 10h48min de 10 de março de 2013 (UTC)
- O que precisa ser comparado é a lista de links do código wiki da página com a lista de links do item do Wikidata, não com a barra lateral (nela aparecerá tudo o que estiver no código wiki, pois este tem precedência sobre o Wikidata).
- No momento em que escrevi este comentário, o artigo Fenômeno físico não possuía um item no Wikidata, logo não aparecia qualquer link "editar" na barra lateral. Isso só acontecerá quando alguém criar um item e incluir um link para esse artigo da Wikipédia lusófona, na Wikidata. Não há nada sendo "liberado aos poucos". O recurso já está aí. O que falta é utilizá-lo. Helder 17h04min de 10 de março de 2013 (UTC)
Já estão sendo feitas alterações, pelas minhas páginas vigiadas vi o robô Legobot em ação: Especial:Contribuições/Legobot. JAMAL 14h29min de 10 de março de 2013 (UTC)
- Esse é um bot que está em testes. Ver Wikipédia:Robôs/Pedidos de aprovação/Legobot. GoEThe (discussão) 16h19min de 10 de março de 2013 (UTC)
- JAMAL, é como o Helder disse, o wikidata não tem a entrada para esse artigo, porque nos outros projectos, os iw apontavam para fenómeno. Sobre o Legobot, como passou já dois ou três dias e os bots pararam, comecei a dar permissão a novos bots, criados especificamente para remover os iw's, e adicionar no wikidata os que ainda lá não estão. A situação que me causa grande preocupação de momento, é o facto de contas sem flag estarem a remover massivamente os iw's, de forma manual ou semi-automática. Há já um caso onde foram removidos cerca de 1500 iw nos últimos dois dias, e isso causa não só problemas nas mudanças recentes, como nas páginas vigiadas, pois se for efectuado por um robô, é sempre possível filtrar as edições de bots. Podemos presumir que temos consenso que impeça aque contas sem flag de bot removam massivamente interwikis de forma isolada? Podemos ter uma situação de caos nos próximos dias, se vários editores envredarem por este tipo de edição. Alchimista Fala comigo! 21h54min de 10 de março de 2013 (UTC)
- Não, não temos consenso nenhum, a menos que não saiba o significado do conceito. Não existe nenhuma informação (sem ser opiniões pessoais) que aponte problemas no facto de que utilizadores façam esse tipo de tarefas de forma semi-automática, e até mesmo manual. Os robôs podem agir na mesma e serem auxiliados por utilizadores correntes, tal como ocorre noutras Wikipédias. Citação: Há já um caso onde foram removidos cerca de 1500 iw nos últimos dois dias, e isso causa não só problemas nas mudanças recentes, como nas páginas vigiadas, pois se for efectuado por um robô, é sempre possível filtrar as edições de bots. - isto é um exemplo de uma justificação totalmente falha; é o mesmo que dizer, "ah e tal, a minha lista fica muito cheia, e uma vez que posso ocultar as edições feitas pelo(s) (meu) robô(s), os utilizadores não podem auxiliar na tarefa só por uma questão de estética". VítoR™ • (D) 22h02min de 10 de março de 2013 (UTC)
- JAMAL, é como o Helder disse, o wikidata não tem a entrada para esse artigo, porque nos outros projectos, os iw apontavam para fenómeno. Sobre o Legobot, como passou já dois ou três dias e os bots pararam, comecei a dar permissão a novos bots, criados especificamente para remover os iw's, e adicionar no wikidata os que ainda lá não estão. A situação que me causa grande preocupação de momento, é o facto de contas sem flag estarem a remover massivamente os iw's, de forma manual ou semi-automática. Há já um caso onde foram removidos cerca de 1500 iw nos últimos dois dias, e isso causa não só problemas nas mudanças recentes, como nas páginas vigiadas, pois se for efectuado por um robô, é sempre possível filtrar as edições de bots. Podemos presumir que temos consenso que impeça aque contas sem flag de bot removam massivamente interwikis de forma isolada? Podemos ter uma situação de caos nos próximos dias, se vários editores envredarem por este tipo de edição. Alchimista Fala comigo! 21h54min de 10 de março de 2013 (UTC)
- Vitor, um dos grandes propósitos da existência da flag de bot é precisamente permitir ocultar as edições das mr's, e a filtragem nas páginas vigiadas, portanto não é uma questão meramente pessoal ou estética. E se consideras que não há consenso nenhum, então nem sequer se pode remover os iw's massivamente por contas sem flag de bot enquanto não houver consenso. Nos ultimos dias tenho falado com gente de vários projectos para perceber como foi implementado, ai vais desculpar-me, mas não tenho conhecimento, pelo menos nos grandes projectos, de que é permitido nesses projectos a remoção massiva de iw's por contas sem flag, pelo contrário, essas edições são consideradas edições de bot, e, como tal, devem ser efectuadas por bots. Alchimista Fala comigo! 22h26min de 10 de março de 2013 (UTC)
- O principio base é que qualquer editor está habilitado a fazer a tarefa desde que tenha conhecimento, tal como está documentado. O consenso teria de, neste caso, proibir utilizadores regulares (já que insiste em fazer distinção). Não é meia dúzia de pessoas, maior parte administradores ou outros que possuem um robô, que chegam a um consenso qualquer. Além disso, se falou não deve ter sido com as pessoas certas... As páginas de documentação do Wikidata estão disponíveis para qualquer pessoa. E bem que podíamos esperar pelos vossos robôs para fazer alguma coisa, pois o projecto já foi implementado há dias e só hoje é que houve notícia de um robô a funcionar para este objectivo. Tem de haver um documento redigido pela entidade oficial que informe sobre problemas existentes (se é que existem...) que impeçam os utilizadores, como eu, o Manuel, a Maria, etc., de fazer este tipo de tarefas. Até porque, os robôs também cometem erros, e não são os únicos que podem ser filtrados. De resto, todos os utilizadores (com robô ou não) estão aptos a fazer esta tarefa (tirando os casos de erros constantes e abusos consecutivos) até que haja pelo menos um consenso que nos proíba de tal. Não é com avisos de prováveis bloqueios que se chega a algum lado. Julgava que esta enciclopédia era livre... VítoR™ • (D) 22h44min de 10 de março de 2013 (UTC)
- Não há problema nenhum, a meu ver, se nas edições comuns os editores aproveitarem para verificar se os iw's foram adicionados no wikidata e caso positivo os removam, pelo contrário, parece-me ser um bom exemplo de como os editores podem ajudar. Agora o que me parece problemático é a remoção massiva de interwikis como única alteração efectuada. Os bots só agora começam a remover os iw's para dar tempo de todos pararem, e não haver uns a adicionar e outros a remover, e ai estou de consciência tranquila, porque o meu bot de iw está parado faz meses. Agora eu não vejo vantagem em ter contas *humanas* a remover massivamente interwikis, dedicando grande parte do seu tempo a essa remoção, entupindo as mudanças recentes e os artigos vigiados, quando na vasta maioria das situações os bots podem fazer isso sem causar disturbios no patrulhamento normal da wikipédia, pois é muito mais fácil ignorar as suas edições. Afinal, qual será a vantagem de ter editores dedicando horas e horas a percorrer os milhares de artigos e remover unicamente os interwikis, quando poderiam estar a melhorar os mesmos, e a causar distúrbios na patrulha de mudanças, quando os bots, com edições que facilmente são ignoradas nos mecanismos de patrulha, o podem fazer, libertando os editores para tarefas que necessitam de discernimento humano? A mim, parece-me ser uma questão de bom senso. Alchimista Fala comigo! 23h05min de 10 de março de 2013 (UTC)
- A mim parece-me outra questão... No entanto, os autorrevisores têm as suas edições patrulhadas por algum motivo, certo? Isto pegando nesse caso das edições patrulhadas de que falou... Mas a grande questão é que nas edições semi-automáticas, as ligações interlínguas nem sequer são removidas manualmente, é o script (reconhecido pelos projectos) que analisa os dados na entrada correspondente no Wikidata e remove o wiki texto caso estas estejam presentes. Se os dados não estiverem ainda na base de dados ou estiverem com entradas diferentes (em caso de redireccionamentos ou erros de robôs), não são removidos da página e o editor proceder à correcção. Inclusive, o próprio Wikidata possui uma funcionalidade em que as ligações podem ser importadas de um certo idioma da Wikipédia para evitar que sejam colocadas uma a uma, e posteriormente, os robôs adicionam as linguagens em falta ou criadas depois da implementação. Cada um faz com o seu tempo o que quer, não deixa de ser uma tarefa que tem de ser feita, e se pode haver auxilio de todos, melhor ainda. Não se deve proibir ninguém de querer ajudar ou melhorar o projecto. VítoR™ • (D) 23h26min de 10 de março de 2013 (UTC)
- Sim, os autorevisores têm as edições marcadas como patrulhadas para se poder filtrar as edições de quem tem menos edições, ou ainda não é autorevisor, isso não implica que não sejam patrulhadas. Quando alguém edita uma página que tenho nos vigiados, e em que presto particular atenção, vou lá verificar a edição, e penso que seja uma actitude genérica, se tu ou outro editor vir uma edição num conjunto particular de artigos que tenha vigiado, costuma ir vigiar. O problema é que na patrulha, a inundação por edições massivas e repetitivas torna muito mais difícil acompanhar a evolução dos artigos. E além do mais, se é o script que faz a verificação, qual a vantagem de ter um humano a clicar num botão de confirmação, quando um bot faz isso automaticamente, libertando o editor para outras tarefas, e permite não causar distúrbios no patrulhamento? Neste momento os bots começam a actualizar os iw's e a remover os que já estão no wikidata, é somente uma questão de tempo. Alchimista Fala comigo! 23h50min de 10 de março de 2013 (UTC)
- E qual a vantagem de esperar desde de 6 de Março pelos robôs quando os utilizadores podem muito bem ir adiantando trabalho? Pois... Não me parece que haja sequer argumentos válidos para impedir alguém de editar com esse objectivo, desde que seja bem feito, é e louvar até quem se chegue à frente e seja eficaz. Além disso, é sempre outra oportunidade de verificar se os artigos precisam de atenção noutras matérias, corrigir erros mais graves e existentes, etc. E até porque, já me deparei com situações em que as ligações de Wikipédias que implementaram o sistema antes de nós, a Wikidata não tinha entrada para esse respectivo idioma... É tudo uma questão de saber trabalhar e ajudar, os robôs também cometem erros e não estão a ser impedidos de nada. VítoR™ • (D) 00h07min de 11 de março de 2013 (UTC)
- Sim, os autorevisores têm as edições marcadas como patrulhadas para se poder filtrar as edições de quem tem menos edições, ou ainda não é autorevisor, isso não implica que não sejam patrulhadas. Quando alguém edita uma página que tenho nos vigiados, e em que presto particular atenção, vou lá verificar a edição, e penso que seja uma actitude genérica, se tu ou outro editor vir uma edição num conjunto particular de artigos que tenha vigiado, costuma ir vigiar. O problema é que na patrulha, a inundação por edições massivas e repetitivas torna muito mais difícil acompanhar a evolução dos artigos. E além do mais, se é o script que faz a verificação, qual a vantagem de ter um humano a clicar num botão de confirmação, quando um bot faz isso automaticamente, libertando o editor para outras tarefas, e permite não causar distúrbios no patrulhamento? Neste momento os bots começam a actualizar os iw's e a remover os que já estão no wikidata, é somente uma questão de tempo. Alchimista Fala comigo! 23h50min de 10 de março de 2013 (UTC)
- A mim parece-me outra questão... No entanto, os autorrevisores têm as suas edições patrulhadas por algum motivo, certo? Isto pegando nesse caso das edições patrulhadas de que falou... Mas a grande questão é que nas edições semi-automáticas, as ligações interlínguas nem sequer são removidas manualmente, é o script (reconhecido pelos projectos) que analisa os dados na entrada correspondente no Wikidata e remove o wiki texto caso estas estejam presentes. Se os dados não estiverem ainda na base de dados ou estiverem com entradas diferentes (em caso de redireccionamentos ou erros de robôs), não são removidos da página e o editor proceder à correcção. Inclusive, o próprio Wikidata possui uma funcionalidade em que as ligações podem ser importadas de um certo idioma da Wikipédia para evitar que sejam colocadas uma a uma, e posteriormente, os robôs adicionam as linguagens em falta ou criadas depois da implementação. Cada um faz com o seu tempo o que quer, não deixa de ser uma tarefa que tem de ser feita, e se pode haver auxilio de todos, melhor ainda. Não se deve proibir ninguém de querer ajudar ou melhorar o projecto. VítoR™ • (D) 23h26min de 10 de março de 2013 (UTC)
- Não há problema nenhum, a meu ver, se nas edições comuns os editores aproveitarem para verificar se os iw's foram adicionados no wikidata e caso positivo os removam, pelo contrário, parece-me ser um bom exemplo de como os editores podem ajudar. Agora o que me parece problemático é a remoção massiva de interwikis como única alteração efectuada. Os bots só agora começam a remover os iw's para dar tempo de todos pararem, e não haver uns a adicionar e outros a remover, e ai estou de consciência tranquila, porque o meu bot de iw está parado faz meses. Agora eu não vejo vantagem em ter contas *humanas* a remover massivamente interwikis, dedicando grande parte do seu tempo a essa remoção, entupindo as mudanças recentes e os artigos vigiados, quando na vasta maioria das situações os bots podem fazer isso sem causar disturbios no patrulhamento normal da wikipédia, pois é muito mais fácil ignorar as suas edições. Afinal, qual será a vantagem de ter editores dedicando horas e horas a percorrer os milhares de artigos e remover unicamente os interwikis, quando poderiam estar a melhorar os mesmos, e a causar distúrbios na patrulha de mudanças, quando os bots, com edições que facilmente são ignoradas nos mecanismos de patrulha, o podem fazer, libertando os editores para tarefas que necessitam de discernimento humano? A mim, parece-me ser uma questão de bom senso. Alchimista Fala comigo! 23h05min de 10 de março de 2013 (UTC)
- O principio base é que qualquer editor está habilitado a fazer a tarefa desde que tenha conhecimento, tal como está documentado. O consenso teria de, neste caso, proibir utilizadores regulares (já que insiste em fazer distinção). Não é meia dúzia de pessoas, maior parte administradores ou outros que possuem um robô, que chegam a um consenso qualquer. Além disso, se falou não deve ter sido com as pessoas certas... As páginas de documentação do Wikidata estão disponíveis para qualquer pessoa. E bem que podíamos esperar pelos vossos robôs para fazer alguma coisa, pois o projecto já foi implementado há dias e só hoje é que houve notícia de um robô a funcionar para este objectivo. Tem de haver um documento redigido pela entidade oficial que informe sobre problemas existentes (se é que existem...) que impeçam os utilizadores, como eu, o Manuel, a Maria, etc., de fazer este tipo de tarefas. Até porque, os robôs também cometem erros, e não são os únicos que podem ser filtrados. De resto, todos os utilizadores (com robô ou não) estão aptos a fazer esta tarefa (tirando os casos de erros constantes e abusos consecutivos) até que haja pelo menos um consenso que nos proíba de tal. Não é com avisos de prováveis bloqueios que se chega a algum lado. Julgava que esta enciclopédia era livre... VítoR™ • (D) 22h44min de 10 de março de 2013 (UTC)
@Alchimista e Vitor
Como eu disse acima, todos artigos que abri e chequei que estava habilitado o Wikidata(que aparece o botão Editar links) estavam iguais: os interwikis do código wiki e os interwikis da barra lateral. Portanto estando habilitado o Wikidata em um artigo, presume-se que está tudo igual (e está mesmo, eu chequei inúmeros artigos) e os interwikis podem ser removidos sem problemas, seja por robôs, seja por editores ou IPs.
O único problema que acarreta perda de informação é quando o Wikidata não está habilitado no artigo e alguma pessoa remove os interwikis, nesse caso a informação é perdida. JAMAL 01h14min de 11 de março de 2013 (UTC)
- Há algumas informações incorretas acima:
- @Jml3: O que falou não faz muito sentido. O que precisa comparar não é o código wiki e a barra lateral, mas sim o código wiki e a lista de links do Wikidata! O link também estará presente mesmo que só haja um link no Wikidata (então se remover todos os do código wiki, perderá os demais!).
- @Vitorvicentevalente: O que permite a importação de links de certa Wikipédia para o Wikidata não é uma funcionalidade do Wikidata, mas sim um script de usuário que, como qualquer outro, deve ser usado com cautela e que não isenta o usuário da responsabilidade por suas edições
- "Cada um faz com o seu tempo o que quer", só se não for prejudicial ao projeto. E fazer edições em massa sem estar no grupo dos robôs é prejudicial.
- Helder 11h45min de 11 de março de 2013 (UTC)
- ?? Os interwikis da barra lateral são sempre iguais ao Wikidata. Ou seja, se você comparar o código wiki da página com os interwikis da barra lateral, estará comparando com o que existe no Wikidata. JAMAL 11h58min de 11 de março de 2013 (UTC)
- Não estará não. O que acontece se o artigo "Exemplo" tem "
[[fr:Exemplo]][[zh:Exemplo]]...[[ru:Exemplo]]
" e o item "Q1234567890" do Wikidata tem apenas um link para "[[pt:Exemplo]]"? Na barra lateral terá os links para fr, zh, ..., ru, que são os mesmos do código wiki, mas nem por isso pode concluir que os links estão no Wikidata (e de fato, neste exemplo não estão). Helder 12h50min de 11 de março de 2013 (UTC)
- Não estará não. O que acontece se o artigo "Exemplo" tem "
- ?? Os interwikis da barra lateral são sempre iguais ao Wikidata. Ou seja, se você comparar o código wiki da página com os interwikis da barra lateral, estará comparando com o que existe no Wikidata. JAMAL 11h58min de 11 de março de 2013 (UTC)
- Sim JAMAL, na vasta maioria dos artigos não há problemas, há alguns casos onde há ligações duplicadas ou redirecionamentos, mas ai também é de fácil resolução, e no final, provavelmente será necessário resolver manualmente alguns desses casos. Mas o vitor apontou duas situações que não são verdade. Em primeiro lugar, já foi dito no início de que teria de ser feito um compasso de espera logo após a implementação do wikidata, para que todos os bots de iw parassem, ou actualizassem os códigos para aceitar o wikidata. Isto para evitar situações em que após a remoção de iw, seja por bots ou humanos, não houve-se bots que as adiciona-se depois.
- Em segundo lugar, e pensava que haveria uma outra consciencialização por parte da comunidade, uma edição por um bot e por um humano, em termos operacionais são distintas. Senão vejamos, de forma simples para fácil percepção. Para editar a página "Avelãs da Ribeira" pelo método tradicional, é preciso abrir a página Avelãs da Ribeira, enquanto que um bot minimamente eficiente e que precisa somente do texto, obtém algo como isto directamente da API. Como podem ver, somente o texto do artigo é apresentado, num formato muito mais básico enquanto que no primeiro caso, é preciso buscar toda a informação necessária para montar a tradicional página wiki. Isto revela-se mais eficiente, pois o esforço computacional é bem menor. Já agora, na verdade um bot obtem mais isto, mas a diferença é somente no formato, o primeiro que apontei é mais "human-friendly". Em segundo, para editar duas páginas, é preciso abri-las em separado, um bot que vá editar 2 páginas, obtêm algo como isto, ou seja, duas páginas num mesmo pedido, num formato que requer menos esforço de computação por parte dos servidores.
- Acrescido a isto, um bot com flag, consegue obter até 5 000 páginas de uma só vez, embora o aconselhável seja não mais do que 250. Ou seja, pelos dois primeiros pontos, penso ser fácil perceber de que um bot a realizar o trabalho seja benéfico porque permite que se poupe esforços desnecessários dos recursos nos servidores. Há ainda um 3 ponto muito importante. A generalidade dos bots tira partido de algo que se chama Manual:Maxlag parameter, e é um dos aspectos que requer atenção ao criar um bot, e para não pensarem que é uma opinião pessoa, podem confirmar na en, em en:Wikipedia:Bot_policy#Bot_requirements. Este maxlag serve para o bot quando percebe que os servidores estão a atingir um nível elevado de saturação, simplesmente abrandam as edições e os pedidos, chego mesmo a ter bots parados horas precisamente porque está muita gente a editar, e evita-se assim uma sobrecarga desnecessária, e os problemas dai resultantes.
- Ou seja, sendo edições tipicamente robóticas, creio que há um interesse comunitário em manter boas condições de patrulhamento, e evitar usar recursos desnecessários em modo massivo. Lembro que não estamos a falar meia dúzia de edições, mas sim em milhares de edições cujo único propósito é fazer uma edição padronizada, sem necessidade de julgamento humano. Fazer por bot, evitaria por isso uma sobrecarga desnecessária dos servidores, e uma alocação de recursos humanos em tarefas mais pertinentes. Alchimista Fala comigo! 12h42min de 11 de março de 2013 (UTC)
- Me parece que via bot é o melhor jeito como o Alchimista explicou; como edições humanas para tarefas muito repetitivas e desgastantes criam inevitáveis erros(e consequentemente perda de informação) poderia ser programado para reverter automaticamente remoções de interwikis feitas por usuários e IPs(e se possível enviar um aviso automático na PDU do usuário avisando para não remover interwikis que os bots já estão encarregados dessa tarefa). Melhor deixar tudo para os bots fazerem, assim os usuários não precisarão se preocupar com isso, a comunidade só tem a ganhar. JAMAL 13h20min de 11 de março de 2013 (UTC)
- Não precisa permitir edições em massa só para se dar trabalho de ter que enviar avisos depois que já foram feitas: o filtro de edições pode ser configurado para avisar assim que o editor exceder uma quantidade definida de edições. Helder 13h36min de 11 de março de 2013 (UTC)
- Me parece que via bot é o melhor jeito como o Alchimista explicou; como edições humanas para tarefas muito repetitivas e desgastantes criam inevitáveis erros(e consequentemente perda de informação) poderia ser programado para reverter automaticamente remoções de interwikis feitas por usuários e IPs(e se possível enviar um aviso automático na PDU do usuário avisando para não remover interwikis que os bots já estão encarregados dessa tarefa). Melhor deixar tudo para os bots fazerem, assim os usuários não precisarão se preocupar com isso, a comunidade só tem a ganhar. JAMAL 13h20min de 11 de março de 2013 (UTC)
- É prejudicial? Só porque vocês o dizem? Documentação que prove os malefícios desse tipo de tarefa? Onde está? Sim, porque até agora não passam de justificações baseadas em opiniões pessoais. Cada um é livre de fazer o que quiser com o seu tempo no projecto, e ajudar como pode, não é vandalismo nenhum auxiliar os robôs a remover as ligações. E sim, é um script criado por utilizador, e então? Os robôs são programados por quem? E nem por isso deixam de errar. E até agora, diga-se de passagem, não tive nenhum problema ao utilizar nenhum dos scripts criados para auxiliar a transição para o Wikidata, e mais, já me deparei mais do que uma vez com erros cometidos por robôs. É uma enciclopédia livre, por isso, até provarem quais os pontos negativos neste tipo de tarefa sem recorrerem a opiniões pessoais, qualquer utilizador pode ajudar os robôs a remover as ligações interlínguas desde que o faça de forma correcta. VítoR™ • (D) 13h53min de 11 de março de 2013 (UTC)
- Um bot corretamente programado fazendo 100 mil edições acertará mais que 100 mil editores fazendo uma edição cada. Creio que a maior desvantagem de edições humanas está aí, nos erros que milhares de usuários podem cometer e que seriam evitados se a tarefa fosse feita por um(ou vários) bot(s) corretamente programado(s). JAMAL 14h03min de 11 de março de 2013 (UTC)
- Os erros cometidos por um robô tendem a segui algum padrão detectável ao olhar no código-fonte, enquanto que os cometidos por humanos podem variar caso a caso, sem seguir qualque regra específica, o que os torna mais difíceis de corrigir. Helder 14h23min de 11 de março de 2013 (UTC)
- Além de, como referi anteriormente, as edições por bot não causarem tanta sobrecarga nos servidores nem constrangimentos no patrulhamento. Na en, por exemplo, até têm a este tipo de edições em [[:en:Wikipedia:Bot_policy#Assisted_editing_guidelines|]], tornando necessário, em alguns casos, a abertura de um pedido de bot ou pedido similar, para averiguação pelo Grupo de Aprovação de Bots locais, algo que cá não acontece. Alchimista Fala comigo! 14h44min de 11 de março de 2013 (UTC)
- Esqueci de comentar da vantagem da padronização dos sumários de edição. Cada usuário ou IPs irá escrever um sumário de um jeito único e com certeza haverão aqueles que nem se darão ao trabalho de escrever no sumário/resumo de edição. Os bots podem padrozinar isso, me parece adequado o modo que aquele bot estava fazendo "(A migrar 18 interwikis, agora providenciados por Wikidata em d:q233802)" e colocando as ligações para o Wikidata e para a propriedade específica(d:q233802). Essa é uma grande vantagem. JAMAL 15h21min de 11 de março de 2013 (UTC)
- Se são assim tanto a favor dos robôs para tudo, não percebo porque simplesmente comentam este tópico. Deviam programar um robô para isso e para o resto das vossas tarefas, de certeza que não seriam cometidos erros, não seriam inseridas opiniões pessoais, e "não haveria sobrecarga nos servidores nem constrangimentos no patrulhamento". Fácil não? Diria antes, ridículo... VítoR™ • (D) 15h56min de 11 de março de 2013 (UTC)
- Com relação à mensagem "A migrar 18 interwikis, agora providenciados por Wikidata em d:q233802" que os bots estão colocando no histórico das páginas ressalto que o termo providenciados não é uma boa tradução para o original do inglês provided. Melhor seria fornecidos, oferecidos, disponibilizados ou mesmo providos. Zarco (discussão) 17h28min de 15 de abril de 2013 (UTC)
- Se são assim tanto a favor dos robôs para tudo, não percebo porque simplesmente comentam este tópico. Deviam programar um robô para isso e para o resto das vossas tarefas, de certeza que não seriam cometidos erros, não seriam inseridas opiniões pessoais, e "não haveria sobrecarga nos servidores nem constrangimentos no patrulhamento". Fácil não? Diria antes, ridículo... VítoR™ • (D) 15h56min de 11 de março de 2013 (UTC)
- Esqueci de comentar da vantagem da padronização dos sumários de edição. Cada usuário ou IPs irá escrever um sumário de um jeito único e com certeza haverão aqueles que nem se darão ao trabalho de escrever no sumário/resumo de edição. Os bots podem padrozinar isso, me parece adequado o modo que aquele bot estava fazendo "(A migrar 18 interwikis, agora providenciados por Wikidata em d:q233802)" e colocando as ligações para o Wikidata e para a propriedade específica(d:q233802). Essa é uma grande vantagem. JAMAL 15h21min de 11 de março de 2013 (UTC)
- Além de, como referi anteriormente, as edições por bot não causarem tanta sobrecarga nos servidores nem constrangimentos no patrulhamento. Na en, por exemplo, até têm a este tipo de edições em [[:en:Wikipedia:Bot_policy#Assisted_editing_guidelines|]], tornando necessário, em alguns casos, a abertura de um pedido de bot ou pedido similar, para averiguação pelo Grupo de Aprovação de Bots locais, algo que cá não acontece. Alchimista Fala comigo! 14h44min de 11 de março de 2013 (UTC)