Publié le: 05/09/2025 @ 18:13:45: Par Nic007 Dans "Programmation"
ProgrammationUne nouvelle étude d'Apiiro met en lumière un paradoxe dans l'utilisation de l'intelligence artificielle en programmation. Des assistants de codage comme Claude Code d'Anthropic, GPT-5 d'OpenAI et Gemini 2.5 Pro de Google peuvent multiplier par trois ou quatre la vitesse des flux de travail. Cependant, ces mêmes technologies entraînent une forte augmentation des problèmes de sécurité. L'analyse de dizaines de milliers de référentiels contenant le travail de programmeurs des plus grandes entreprises mondiales a révélé une tendance claire. Les programmeurs utilisant le développement assisté par IA peuvent produire beaucoup plus de code que leurs collègues traditionnels. Parallèlement, leurs projets sont truffés de bugs de sécurité, dix fois plus fréquents. Apiiro souligne qu'il ne s'agit pas seulement de vulnérabilités facilement exploitables, mais aussi de pratiques dangereuses comme l'utilisation de bibliothèques open source non sécurisées, de schémas de programmation risqués et le stockage de clés API sans sécurité. Les données recueillies par l'entreprise indiquent que le nombre de ces incidents a décuplé entre décembre 2024 et juin 2025.

Itay Nussbaum d'Apiiro décrit le phénomène avec brio : l'IA peut réduire les erreurs de syntaxe et de logique de respectivement 76 % et 60 %, mais elle génère également du code vulnérable aux failles architecturales et aux vulnérabilités d'élévation de privilèges. Le risque de ces problèmes augmente respectivement de 153 % et 322 %. Les chercheurs ont également observé le style de travail des développeurs d'IA. Au lieu de soumettre de nombreuses modifications mineures, ils soumettent des changements plus importants en un nombre réduit de requêtes d'extraction, ce qui les rend difficiles à vérifier avec précision. De plus, ils sont deux fois plus susceptibles de stocker des données sensibles en texte brut dans le code.

Les conclusions d'Apiiro concordent avec les travaux d'équipes universitaires de l'Université de San Francisco, du Vector Institute du Canada et de l'Université du Massachusetts à Boston. Les chercheurs ont également constaté que les améliorations itératives du code par les modèles d'IA peuvent compromettre la sécurité. Cependant, toutes les recherches ne confirment pas cette hypothèse. L'équipe de recherche du METR a présenté des données montrant que l'utilisation de l'IA n'augmente pas la productivité, et la réduit même de 19 % en moyenne chez les programmeurs travaillant avec des systèmes d'IA.
Poster un commentaire
Vous devez être identifié pour accéder à cette fonctionnalité

Utilisateur
Mot de passe
 
Informaticien.be - © 2002-2025 AkretioSPRL  - Generated via Kelare
The Akretio Network: Akretio - Freedelity - KelCommerce - Votre publicité sur informaticien.be ?