
Le problème contre lequel les chercheurs mettent en garde est appelé « effondrement des modèles ». Ce concept a été décrit pour la première fois en 2023 dans un article de scientifiques britanniques et canadiens, qui ont qualifié ce phénomène de « malédiction de la récursivité ». Il implique que les modèles d'IA apprennent les uns des autres, reproduisent les erreurs et perdent progressivement leur capacité à générer des données précieuses. Les nouvelles conclusions suggèrent que, même si les analyses d'IA ne sont pas directement intégrées aux ensembles d'entraînement, en exposant le contenu créé par d'autres systèmes d'IA, elles augmentent leur visibilité et leur crédibilité. Ceci, à son tour, augmente le risque que ce contenu se retrouve dans les bases de données d'entraînement d'autres modèles à l'avenir.
Google conteste l'interprétation des résultats. Un porte-parole de l'entreprise a qualifié l'étude d'incorrecte et a remis en question l'efficacité des détecteurs de contenu générés par l'IA, dont Originality.ai. Il a souligné que ces outils sont souvent trompeurs et ne fournissent pas de résultats concluants. L'entreprise affirme également que les liens présentés dans AIO sont dynamiques, contextuels et évoluent en fonction de l'actualité et de l'utilité du moment. Originality.ai se défend toutefois, soulignant la grande précision de son système lors de tests indépendants. L'entreprise maintient que le problème existe et qu'il risque de s'aggraver si la part de contenu généré par des algorithmes augmente sur le web. Si ce phénomène s'intensifie, le web pourrait ressembler à un écosystème fermé, où les données sont créées en boucle fermée, sans intervention humaine. Un tel scénario signifie non seulement une perte de diversité des contenus, mais aussi un risque de désinformation généralisée.


Vous devez être identifié pour accéder à cette fonctionnalité