Wikipédia s'est longtemps interrogée sur la manière de gérer la popularité croissante des outils basés sur l'IA, notamment les grands modèles de langage. Après de nombreuses discussions, la communauté du site a décidé d'introduire des règles spécifiques définissant clairement les domaines où l'IA est autorisée et ceux où elle est interdite. La nouvelle politique est déjà en vigueur pour la version anglaise de Wikipédia et instaure des restrictions claires. Le changement le plus important est l'interdiction pour les auteurs d'utiliser des modèles de langage pour créer ou réécrire le contenu des articles. Cette décision vise à préserver la qualité et la crédibilité des informations publiées, qui constituent le fondement du fonctionnement de l'encyclopédie depuis des années. La mise en œuvre des nouvelles règles n'a pas été une décision facile. Les tentatives précédentes d'établir une politique unifiée avaient échoué, la communauté n'arrivant pas à s'entendre sur les détails. Si beaucoup reconnaissaient la nécessité des changements, les avis divergeaient quant à leur forme exacte. L'une des principales préoccupations est que les outils d'IA puissent altérer le sens des textes ou y ajouter des informations non étayées par les sources. Dans le cas de Wikipédia, où la fiabilité et la vérifiabilité sont essentielles, ce risque a été jugé trop important. Par conséquent, une solution a été choisie qui limite l'utilisation de l'IA à des situations spécifiques.Malgré l'interdiction, Wikipédia n'abandonne pas complètement les outils basés sur l'IA. Les nouvelles règles autorisent leur utilisation dans certains cas, mais uniquement si un humain vérifie soigneusement le résultat final. L'une de ces applications consiste à améliorer le style et la langue des textes. Les auteurs peuvent utiliser l'IA comme outil d'aide à la rédaction, à l'instar des correcteurs grammaticaux traditionnels. Toutefois, il est essentiel que chaque modification soit vérifiée et cohérente avec les sources. La seconde exception concerne la traduction de contenu. Les outils d'IA peuvent faciliter la préparation d'une traduction préliminaire, mais la personne publiant le texte doit maîtriser les deux langues et s'assurer de l'exactitude de la traduction. En pratique, cela signifie que l'IA peut accélérer le travail, mais ne peut pas le remplacer complètement.
Il convient de noter que la nouvelle réglementation ne s'applique qu'à Wikipédia en anglais. Chaque version linguistique fonctionne indépendamment et peut appliquer sa propre réglementation. Dans certains cas, l'approche relative à l'intelligence artificielle est même plus restrictive. Par exemple, Wikipédia en espagnol interdit formellement l'utilisation de modèles de langage pour créer de nouveaux articles ou améliorer le contenu existant. Elle ne fait aucune exception pour les traductions ou la relecture, ce qui montre que les approches de l'IA peuvent varier d'une communauté à l'autre. L'un des principaux défis demeure la détection des contenus générés par l'IA. À l'heure actuelle, aucun outil parfaitement efficace ne permet de déterminer avec certitude si un contenu donné a été créé à l'aide de l'IA. Par conséquent, certains contenus de ce type peuvent encore apparaître dans les articles, notamment lorsque la modération est moins fréquente. Wikipedia souligne toutefois que la forme du texte en elle-même ne constitue pas toujours une preuve suffisante. Le style d'écriture généré par l'IA peut être similaire à celui de certains auteurs, ce qui rend l'évaluation encore plus difficile. Par conséquent, la communauté éditoriale, qui surveille en permanence la qualité du contenu, continue de jouer un rôle crucial.
Plus d'actualités dans cette catégorie
Poster un commentaireVous devez être identifié pour accéder à cette fonctionnalité