Darkoneko's Weblog

Yesterday, today, and no future / time waits for no one

Wikipédia et les robots

Posted by DarkoNeko sur jeudi 13 mars 2008

Les robots : une Force Maléfique qui agit dans l’ombre, à l’insu du commun des mortels…

Quoi ? Des robots éditent Wikipédia ? Nous sommes envahis ! Ils sont parmi nous ! Appelez la police… l’armée… le gouvernement !!

… non

On appelle « robot » (ou « compte bot »), dans le jargon wikipédien, un compte utilisateur sur lequel tourne un programme qui réalise une tâche répétitive sur un grand nombre d’articles. Une sorte d’esclave qui allège la lourde charge des contributeurs humains.

Les éditions automatiques représentent, à l’heure actuelle, environ 1/5eme du total des éditions sur la Wikipédia francophone.

Les activités robot-esques peuvent être grosso-modo classées en trois types :

Scripts interwikis

il existe un code à rajouter en bas de page qui permet de relier les articles sur un même sujet dans ses différentes langues sur wikipedia. Ce code créé des liens dis « liens interwikis ». Voir la page d’aide sur les « liens interwikis » pour ceux qui ne connaissent pas le terme.

La mise à jour manuelle des liens interwiki entre les 200+ langues que comporte Wikipédia serait une tâche titanesque…imaginez un peu :

  • à chaque fois que vous créez un article
  • à chaque fois que vous supprimez un article (pour les admins)
  • à chaque fois que vous renommez un article

…qu’il faille ajouter/supprimer ou modifier un lien interwiki sur tous les autres wikipedia possédant un article sur le même sujet !

Au lieu de ça, il suffit d’ajouter un lien interwiki depuis/vers un autre wikipedia lors de la création de l’article pour « initialiser la pompe », et le robot se chargera automatiquement de le propager a l’ensemble des autres wikis.

Pour résumer le fonctionnement du script :

  • Parcourir la liste d’articles d’un wiki donné
  • pour chaque article, parcourir ses interwikis
  • Mettre à jour si des éléments ont été ajoutés, supprimés pour déplacés

Ce système n’est pas parfait, car il y a parfois des conflits : des cas ou plusieurs articles d’une langue pointent vers le même article sur un autre wiki. Ces cas doivent être résolus par une intervention humaine.

Note : le script le plus utilisé pour cette manipulation est interwiki.py, du framework Pywikipediabot

Scripts de remplacement de texte

Cette activité est la plus courante. Elle concerne par exemple :

  • le renommage de catégories (comme pour les liens interwikis, on ajoute un code en bas de page pour relier tous les articles partageant un thème
  • l’ajout, transformation ou suppression de modèles.
  • la correction de fautes d’orthographe courantes (ce point pose parfois problème dans la gestion d’exceptions à la règle)
  • le retrait de liens vers des images ou articles ayant été supprimés
  • Création automatique d’articles : notamment, la « base minimale » de la plupart des articles sur des communes françaises ont été créés automatiquement, à partir des données de l’INSEE.
  • etc.

Script à « réactions »

Les scripts de cette catégorie effectuent des actions en réponse à un évènement (ils y réagissent, d’où le nom)

Pour ce faire, ils « lisent » à intervalles réguliers les modifications récentes sur le site ou sur IRC

…exemples :

  • Combat contre le vandalisme. Le robot Salebot, grâce à une série d’algorithmes, détecte si une édition donnée est un vandalisme (blanchiment de sections de la page, ajouts d’insultes, etc) et révoque le cas échéant.
  • Archivage automatique des discussions après un certain temps de non activité
  • Aide aux débutants, par exemple
    • ajout automatique de signature à une message lorsqu’une personne oublie de le faire (existe uniquement sur la Wikipédia anglophone pour l’instant)
    • Laisser un message d’avertissement/aide à un contributeur lorsque, lors de la création d’un article, il ne lui met aucune catégorie ni lien interne. (Escalabot)
    • Souhaiter la bienvenue aux nouveaux, en postant un message d’aide sur leur page de discussion (Loveless)

Un problème avec les robots, c’est que tout comme l’édition des articles, à peu près n’importe qui peut en utiliser un, et les dommages peuvent rapidement être importants en cas d’erreur. De nombreux wikis ont donc rendu obligatoire l’obtention du statut de bot, déclaré et accepté par la communauté, pour l’utilisation de scripts, sous peine de blocage.

Il existe d’autres scripts, dits « d’aide à l’édition », qui automatisent des actions mais demandent eux une confirmation humaine  pour les effectuer. Par exemple : LiveRC, qui sert notamment au combat contre le vandalisme, et AutoWikiBrowser . Mais là encore, l’utilisation peut créer des dommages si l’utilisateur n’est pas suffisamment attentif.

Bref : les robots sont nos amis, ils faut les aimer aussi… mais de grâce, ne faites pas n’importe quoi avec :)

edit :

  • simplification de certaines explications obscures — merci Lilyu :)
  • ajout des robots d’archivage (merci Chico :)
Advertisements

3 Réponses to “Wikipédia et les robots”

  1. […] et l’accueil des nouveaux, partie 1 Comme je l’ai mentionné dans mon billet Wikipédia et les robots, une partie de l’accueil des nouveaux, couramment néologisé “bienvenutage”, est […]

  2. darkoneko said

    arf, oui
    Faut dire, moi et mon grand amour de l’archivage…

    J’ai mis à jour.

  3. Chico said

    Tu oublies de parler des des robots d’archivage des pages de conversation des pages de discussion sur le wiki anglophone ;)

Sorry, the comment form is closed at this time.