Publié le: 12/11/2025 @ 14:43:10: Par Nic007 Dans "Programmation"
Faire confiance aux assistants IA est pratique, mais pas toujours judicieux, surtout lorsqu'il s'agit de sujets sensibles. Selon un nouveau rapport faisant autorité , ils peuvent contribuer à dissimuler des troubles alimentaires et produire du contenu faisant la promotion de la minceur . L'analyse en question , réalisée par des chercheurs de Stanford et du Centre pour la démocratie et la technologie (CDT) , décrit comment des outils accessibles au public tels que ChatGPT et Google Gemini , ainsi que Claude et Le Chat , fournissent des conseils sur des régimes extrêmes , des astuces pour masquer les symptômes et des images improvisées. L'analyse met en lumière des fonctionnalités conçues pour accroître l'engagement mais qui, en réalité, amplifient les risques. L'un des aspects les plus inquiétants de cette recherche est le fait que des indications pratiques masquent les symptômes des troubles alimentaires. Google Gemini suggérait des astuces pour dissimuler une perte de poids et des idées pour simuler des repas. ChatGPT décrivait des méthodes pour masquer des vomissements fréquents. Ceux qui les utilisent appliquent les mêmes modèles génératifs pour créer des images personnalisées , transformées en source d'inspiration pour la minceur . La production instantanée et sur mesure rend ce contenu plus pertinent et accessible, accentuant ainsi la pression sociale. La situation est d'autant plus complexe que les mannequins font preuve d'une certaine suffisance , un défaut que les entreprises du secteur reconnaissent. Cette attitude nuit à l'estime de soi , renforce les émotions négatives et encourage les comparaisons néfastes . Ces systèmes héritent également de préjugés culturels . Le rapport souligne qu'ils tendent à perpétuer l'idée fausse selon laquelle les troubles alimentaires ne touchent que les femmes blanches, cisgenres et très minces, ce qui entrave la reconnaissance des symptômes et l'accès aux soins. Les barrières de sécurité actuelles sont insuffisantes. Selon les chercheurs, elles ne permettent pas de saisir les nuances cliniquement importantes de l'anorexie , de la boulimie et de l'hyperphagie boulimique qu'un professionnel compétent peut reconnaître.De nombreux cliniciens , membres de la famille et soignants ignorent encore le véritable impact des outils génératifs sur les patients vulnérables. Les auteurs vous invitent à vous familiariser avec les services les plus courants , à en tester les points faibles et à en parler ouvertement avec les patients. Ce rapport intervient dans un contexte d'inquiétudes croissantes concernant le lien entre les assistants IA et la santé mentale . Plusieurs études établissent un lien entre l'utilisation de l'IA et des épisodes maniaques , des idées délirantes , des comportements d'automutilation et des suicides . Les entreprises concernées, comme OpenAI , reconnaissent les risques potentiels et font face à un nombre croissant de poursuites judiciaires, tandis qu'elles s'efforcent d'améliorer leurs systèmes de protection. Mais Google , Anthropic et Mistral figurent également parmi les fournisseurs d'assistants analysés dans l'étude, ce qui témoigne d'un problème qui touche l'ensemble du secteur . En bref, c'est un nouveau signal d'alarme : nous nous précipitons dans le développement de l'intelligence artificielle sans prendre le temps d'établir les règles et les limites qui, dans une société civilisée et respectueuse de l'État de droit, devraient être la priorité. Mais l'économie, elle, pousse dans une autre direction, et l'argent a toujours été un puissant moteur.
Liens
Lien (3 Clics)
Plus d'actualités dans cette catégorie
Poster un commentaireVous devez être identifié pour accéder à cette fonctionnalité
Se connecter
Inscription
Mot de passe perdu
Jeux Vidéos
Internet
Google
Apple