Publié le: 05/03/2026 @ 00:23:45: Par Nic007 Dans "Programmation"
Les questions les plus personnelles posées aux chatbots peuvent se retrouver dans des bases de données commerciales et être vendues à des entreprises clientes. Un nouveau rapport décrit comment les courtiers en données commercialisent l'accès au contenu des conversations privées avec les assistants vocaux les plus populaires. Extensions de navigateur, services VPN gratuits et bloqueurs de publicités apparemment inoffensifs sont impliqués. L'analyse, réalisée par Lee S. Dryburgh, spécialiste de la visibilité de l'IA pour les marques du secteur de la santé et du bien-être, explique comment les données de ces conversations se retrouvent entre les mains de tiers. Le mécanisme débute par l'installation d'extensions de navigateur proposant des VPN gratuits, le filtrage des publicités ou des fonctionnalités de productivité supplémentaires. Les utilisateurs acceptent les conditions générales et les politiques de confidentialité sans autre forme de procès. Certaines de ces extensions peuvent intercepter les communications entre le navigateur et les services d'IA. D'après Dryburgh, les extensions peuvent contourner les fonctions natives du navigateur, telles que `fetch()` et `XMLHttpRequest()`, et copier le contenu des requêtes et des réponses. Par conséquent, toute conversation effectuée avec des outils comme ChatGPT, Google Gemini, Claude ou DeepSeek peut être archivée à l'insu de l'utilisateur. Les données collectées sont transférées vers des bases de données vectorielles, où elles sont indexées et mises à la disposition des clients via des API. Les utilisateurs reçoivent des identifiants pseudonymisés sous forme de hachages SHA-256, mais le contenu des conversations reste fidèlement reproduit et consultable.Les entreprises d'agrégation de données affirment respecter la législation et anonymiser les profils. Or, les conversations contiennent souvent des noms, des dates de naissance, des numéros de dossier médical, des codes de diagnostic et d'autres informations permettant d'identifier une personne. La combinaison de ces données permet de reconstituer l'identité de l'interlocuteur, et les outils d'intelligence artificielle accélèrent ce processus. Dryburgh décrit comment il a obtenu l'accès à une importante plateforme d'optimisation pour les moteurs de recherche (SEO) financée par du capital-risque. Grâce à cette plateforme, il a analysé des données de navigation agrégées proposées à des clients commerciaux. Dans le cadre de ce test, il a soumis 205 requêtes au moteur de recherche sémantique et a reçu environ 490 suggestions uniques provenant de plus de 435 utilisateurs répartis dans 20 catégories jugées sensibles. Les échanges ont porté sur la dépression, les idées suicidaires, l'automutilation, les troubles alimentaires et la prise de médicaments. D'autres sujets abordés incluaient la toxicomanie, les diagnostics médicaux, les difficultés financières, la sexualité et le statut d'immigration. Des questions plus approfondies ont permis d'aborder des thèmes comme le VIH, les infections sexuellement transmissibles, le cancer, la grossesse, les agressions sexuelles et les dossiers médicaux soumis à la loi HIPAA.
Le rapport cite des exemples de conversations contenant le nom et la date de naissance d'une personne posant des questions sur une grossesse. Il décrit également des échanges entre demandeurs d'asile ayant consulté un chatbot au sujet de leur statut juridique. Les conclusions les plus inquiétantes concernent le secteur de la santé. Dryburgh affirme que certains professionnels de santé saisissent de véritables données de patients dans des chatbots pour modifier et résumer les notes. Ces informations pourraient ensuite être utilisées à des fins commerciales. Le chercheur relève un autre élément : les conversations interceptées contenaient des fragments de documents internes de l'entreprise utilisés pour élaborer des synthèses et des analyses. Cela révèle le risque de fuite de secrets commerciaux via des outils d'IA apparemment sécurisés. Certaines conversations peuvent provenir de comptes partagés, en violation des conditions générales des fournisseurs. Les télétravailleurs utilisant des services intermédiaires à bas coût accèdent à un seul compte de chatbot pour plusieurs utilisateurs. Ceux qui font des économies sur les abonnements peuvent simultanément utiliser des VPN gratuits qui capturent et transmettent les données de trafic.
Plus d'actualités dans cette catégorie 06-03ProgrammationOpenAI lance GPT-5.4 : l’IA peut désormais véritablement travailler à notre place.
05-03ProgrammationDes mois de conversations avec un chatbot Gemini ont conduit un homme à la pire décision possible.
Poster un commentaireVous devez être identifié pour accéder à cette fonctionnalité