Web

24 février 2017 11:22; Act: 24.02.2017 17:55 Print

Les robots correcteurs de Wikipedia en conflit

Une étude montre que des conflits invisibles entre bots peuvent durer pendant des années sur l'encyclopédie en ligne pour modifier les contenus.

storybild

Un bureau de la Wikipedia Foundation de San Francisco. (photo: Eric Risberg)

Sur ce sujet
Une faute?

C'est une «guerre» invisible aux yeux des internautes à laquelle se livrent les bots programmés pour améliorer les articles sur Wikipedia. Et ces petits conflits peuvent durer des années, selon une étude menée par des chercheurs de l'Université d'Oxford et de l'Alan Turing Institute, au Royaume-Uni. Publiée dans la revue scientifique «Plos One», la recherche s'est penchée sur les activités de ces petits logiciels entre 2001 et 2010 dans 13 langues différentes.

Utilisés pour corriger des petites erreurs dans les textes, comme des fautes d'orthographes, des virgules, des espaces inutiles, le fonctionnement des liens ou l'ajout automatique de contenus, les bots peuvent parfois entrer en conflit entre eux avec des conséquences inattendues.

Peu de conflits dans l'édition allemande

«Nous avons découvert que les bots se comportent différemment selon le contexte culturel et leurs conflits sont aussi très différents de ceux des éditeurs humains», a déclaré Milena Tsetkova de l'Oxford Internet Institute.

Les chercheurs ont par exemple observé que l'édition allemande de Wikipedia comportait peu de conflits entre ces petits logiciels, avec une moyenne de 24 modifications effectuées par d'autres bots sur une période de 10 ans, contrairement à la version portugaise. Cette dernière a eu des bots qui ont retouché 185 modifications d'autres bots sur la même période, contre 105 pour la version anglaise. C'est trois fois plus que les humains sur une base individuelle.

L'importance du contexte culturel

Alors qu'ils ne constituent qu'une infime proportion des éditeurs de Wikipedia (0,1%), les bots représentent une partie importante des modifications. Ces systèmes très simples peuvent produire des interactions complexes avec des «conflits stériles» qui perdurent longtemps.

Selon les chercheurs, les résultats doivent servir d'avertissement pour les personnes qui développent des bots ou des systèmes d'intelligence artificielle plus complexes, comme ceux utilisés pour les voitures autonomes ou la cybersécurité. Les chercheurs suggèrent que des conflits potentiels pourraient aussi émerger entre différents programmes suivant le contexte culturel dans lequel ils évoluent.

(L'essentiel/man)