09/10/2025 @ 14:55:16: Google - Il y a un bug sérieux dans Gemini, mais Google ne veut pas le corriger et blâme les utilisateurs.
Google a toujours été très attentif à la sécurité de ses utilisateurs, mais cette fois, il a décidé de ne pas corriger une vulnérabilité découverte dans Gemini. Le problème concerne un type d'attaque appelé « smuggling » ASCII , qui peut tromper l'IA et lui faire lire des instructions cachées dans un texte. Cette nouvelle a suscité des inquiétudes, car Gemini est désormais intégré aux services Google Workspace, et une telle faille pourrait permettre à un attaquant d'accéder à des informations sensibles. Cependant, Google ne considère pas cette vulnérabilité comme une véritable faille de sécurité , mais plutôt comme une forme d'ingénierie sociale que les utilisateurs devraient éviter. Commençons par le début. Le chercheur Viktor Markopoulos a testé plusieurs grands modèles de langage (MLL), dont Gemini, ChatGPT, Claude, Copilot, Grok et DeepSeek, afin de vérifier leur résistance à une menace encore peu connue : l' attaque par contrebande ASCII . Cette méthode consiste à dissimuler des commandes ou des instructions dans un texte, comme un e-mail écrit en caractères minuscules ou presque invisibles, qu'un modèle d'IA peut néanmoins lire et exécuter. Le risque est réel : si un utilisateur demande à Gemini de résumer un message contenant une invite masquée, l'IA pourrait être amenée à effectuer des actions non autorisées, comme rechercher des données sensibles ou transmettre des informations à des tiers . Lors de la démonstration du chercheur, Gemini a été amené à partager un lien malveillant, le croyant être une invite légitime. Alors que Claude, ChatGPT et Copilot ont résisté à l'attaque en reconnaissant et en bloquant les messages cachés, Gemini, ainsi que DeepSeek et Grok, se sont révélés vulnérables . Cela pose un sérieux problème, surtout maintenant que Gemini est intégré aux documents, e-mails et feuilles de calcul Google Workspace, où la présence de données sensibles est fréquente.
Après avoir découvert le problème, Markopoulos a contacté Google pour lui expliquer la vulnérabilité et a même présenté une démonstration pratique de l'attaque. L'entreprise a cependant répondu qu'elle ne considérait pas ce problème comme une faille de sécurité, mais plutôt comme une forme d' ingénierie sociale , c'est-à-dire une manipulation des utilisateurs . Essentiellement, Google estime que la responsabilité incombe à ceux qui interagissent avec le modèle, et non au système lui-même. Cette position a suscité des inquiétudes parmi les experts en sécurité , car elle suscite des doutes quant au niveau de protection offert par Gemini, notamment dans le contexte professionnel. Si un employé utilise l'IA pour résumer un e-mail contenant une invite masquée, le risque de fuite de données sensibles devient tout sauf théorique. Entre-temps, Google n'a annoncé aucun correctif ni mise à jour de sécurité, ce qui laisse penser que l'entreprise n'interviendra pas de sitôt. Les utilisateurs et les entreprises utilisant Gemini doivent donc redoubler de prudence et examiner attentivement les informations fournies au modèle, notamment lorsqu'elles proviennent de sources externes.