Publié le: 31/10/2025 @ 19:24:14: Par Nic007 Dans "Programmation"
Sam Altman, PDG d'OpenAI, a annoncé sur Platform X que la prochaine version de ChatGPT, ChatGPT 6, s'appellera « GPT 6-7 ». Même si l'annonce est peut-être une plaisanterie, le timing est parfait : l'expression « 6 7 » vient d'être désignée mot de l'année 2025 par Dictionary.com. Si vous n'avez jamais entendu ce terme, vous n'êtes pas seul. « 6-7 » (prononcé « six-sept », et non « soixante-sept ») est un argot de la génération Alpha qui a fait fureur sur TikTok en 2025. L'expression a gagné en popularité grâce à la chanson « Doot Doot (6 7) » de Scrilli et aux innombrables mèmes mettant en scène des joueurs de basket et le fameux « 67 Kid ». Si cette explication ne vous suffit pas, pas de souci , vous êtes trop vieux. Le plus drôle, c'est que personne (même les experts de Dictionary.com) ne parvient à comprendre ce que signifie réellement « 6-7 ». Et c'est bien là le but : une expression volontairement absurde. Certains suggèrent que cela pourrait signifier « moyen », « peut-être bien, peut-être pas », ou simplement exprimer une indécision. L'annonce d'Altman selon laquelle la prochaine version de ChatGPT s'appellera « GPT 6-7 » est peut-être une plaisanterie, mais le timing est trop parfait pour être ignoré. Le PDG du leader mondial de l'IA fait référence à un terme argotique qui ne veut absolument rien dire, et cela suffit à capter l'attention des internautes. À l'heure où la génération Alpha crée son propre langage illogique, même les plus grandes entreprises technologiques doivent suivre les tendances. C'est tout simplement une question de marketing efficace. « GPT 6-7 » verra-t-il un jour le jour ? On ne sait pas encore. Peut-être, peut-être pas. 6-7, comme on dit.
Lire la suite (0 Commentaires)
Publié le: 29/10/2025 @ 14:22:08: Par Nic007 Dans "Programmation"
OpenAI affirme que la dernière version de ChatGPT est capable de reconnaître les problèmes de santé mentale des utilisateurs et d'y répondre avec une précision comparable à celle d'un professionnel de la santé mentale. L'entreprise a collaboré avec plus de 170 professionnels de la santé mentale issus de 60 pays, ce qui a permis de réduire de 65 à 80 % le nombre de réponses inappropriées dans différents domaines. En travaillant avec un groupe de psychiatres, de psychologues et d'autres professionnels de la santé, OpenAI a développé des solutions permettant de définir précisément les réactions appropriées et celles qui sont néfastes dans une situation donnée. Ainsi, ChatGPT est conçu pour reconnaître les signes subtils de stress et y répondre de manière adaptée. Selon OpenAI, GPT-5 reconnaît désormais mieux la psychose et la manie, deux troubles mentaux graves. Le modèle gère également plus efficacement les conversations sur l'automutilation et le suicide, témoignant ainsi d'une plus grande empathie et d'une meilleure compréhension de ces problématiques.Il relève également des schémas inquiétants de dépendance affective lorsqu'un utilisateur commence à substituer des interactions avec l'IA à ses relations réelles. Dans un exemple de pensée délirante, où un utilisateur croit qu'un avion lui vole ses pensées, le nouveau modèle combine une validation subtile avec un ancrage explicite dans la réalité. Elle ne minimise pas la peur de l'utilisateur ni ne confirme une croyance erronée. Au contraire, elle normalise l'expérience en expliquant que « le stress et l'anxiété peuvent rendre des choses normales hostiles », en expliquant ce qui peut se produire sur le plan neurologique, en enseignant des techniques d'ancrage et en recommandant de contacter les services appropriés.
OpenAI a également fourni des statistiques sur ces conversations. Comparé à GPT-4o, le nouveau modèle a réduit de 39 % le nombre de réponses inappropriées dans les conversations sur la santé mentale, de 52 % dans celles portant sur l'automutilation et le suicide, et de 42 % dans les scénarios de dépendance affective. Dans les évaluations automatisées des cas difficiles, les performances sont passées de 28 % à 92 % de concordance dans les catégories de santé mentale et de 50 % à 97 % dans les tests liés à la dépendance émotionnelle. L'entreprise a indiqué que 0,07 % des utilisateurs actifs hebdomadaires consultent du contenu sur la psychose ou la manie, 0,15 % abordent le suicide ou l'automutilation et 0,15 % présentent des signes d'un attachement malsain à l'IA.
Lire la suite (0 Commentaires)
Publié le: 24/10/2025 @ 18:26:39: Par Nic007 Dans "Programmation"
L'étude menée par la BBC et l'UER est la plus vaste jamais réalisée sur la relation entre intelligence artificielle et information. Elle a impliqué 22 radiodiffuseurs publics de 18 pays et a testé quatre des principaux assistants d'intelligence artificielle actuellement utilisés : ChatGPT, Copilot, Gemini et Perplexity . Le résultat est loin d'être encourageant. Selon l'analyse, 45 % des réponses fournies par ces systèmes contiennent au moins une erreur significative . Dans un tiers des cas, les sources sont manquantes ou incorrectes , tandis qu'une réponse sur cinq contient des informations fausses ou fabriquées . Ces données sont indépendantes de la langue ou du pays, mais elles confirment la nature systémique du problème : chaque fois que l'IA est invitée à résumer une information, la réponse est susceptible d'être biaisée, déformée ou inexacte. Jean Philip De Tender , directeur des médias de l'UER, a qualifié ce phénomène de « risque pour la confiance du public ». Lorsque les lecteurs ne peuvent plus distinguer le vrai du faux, a-t-il ajouté, « ils finissent par ne plus rien croire », ce qui a des conséquences directes sur la participation démocratique. Et ce problème, à notre avis, deviendra de plus en plus grave dans un avenir proche.Derrière ce pourcentage de 45 %, on observe cependant des différences significatives entre les différents assistants. Gemini , l'IA de Google, est celui qui a présenté le plus de problèmes , avec des erreurs dans 76 % de ses réponses . Ce résultat est plus de deux fois supérieur à celui des autres modèles, mais il est principalement dû à des problèmes d'attribution des sources : les références sont souvent manquantes, ou citées de manière incorrecte ou trompeuse. Cela n'est pas de bon augure et justifie les inquiétudes que nous avons exprimées à maintes reprises quant à l' appauvrissement du Web par Google . ChatGPT, Copilot et Perplexity ne font pas beaucoup mieux, même s'ils conservent un niveau de précision légèrement supérieur. Dans de nombreux cas, les réponses contiennent des informations obsolètes ou des détails jamais publiés par aucun média . Ce sont de véritables hallucinations, présentées comme des faits avec une assurance absolue, qui peuvent facilement dérouter les utilisateurs moins expérimentés. Les journalistes impliqués dans les évaluations se sont basés sur des critères clairs : exactitude , exhaustivité des sources , distinction entre opinion et fait , et capacité à fournir un contexte . Pourtant, aucun outil n’a passé le test avec succès. Pour beaucoup, la conclusion est claire : les assistants d’IA ne sont pas encore prêts à remplacer le journalisme humain , mais, grâce à l’impulsion des géants du web en ce sens, ils le font déjà .
La réaction des médias publics européens a été immédiate. Après la publication des résultats de l'étude, l' UER a également publié une « Boîte à outils pour l'intégrité de l'information dans les assistants IA » , un ensemble de lignes directrices conçues pour aider les développeurs et les rédactions à améliorer la qualité des réponses générées par l'IA . L'objectif est double : apprendre à l'IA à respecter les normes journalistiques et, parallèlement, former les utilisateurs à la vérification des sources . L'organisation, ainsi que ses membres participant, appellent également l' Union européenne et les gouvernements nationaux à appliquer rigoureusement les lois sur l'intégrité de l'information et le pluralisme des médias. Selon la BBC, qui a coordonné l'étude, le risque n'est pas seulement technologique, mais culturel : si les citoyens commencent à douter de tout ce qu'ils lisent, l'écosystème de l'information tout entier perd sa crédibilité . Sans parler des conséquences possibles s'ils croient à des faussetés ou, du moins, à des informations inexactes.
Pourtant, les radiodiffuseurs publics ne se disent pas hostiles à l'IA. Comme l'a souligné Peter Archer , directeur du programme IA générative de la BBC, l'objectif est que ces outils deviennent des alliés de l'information , et non des générateurs de confusion. Mais tant qu'ils n'auront pas appris à distinguer les faits des opinions, la prudence reste la meilleure forme d'intelligence. Et peut-être que quelques règles supplémentaires , véritablement appliquées, ne feraient pas de mal.
Lire la suite (0 Commentaires)
Publié le: 23/10/2025 @ 18:51:12: Par Nic007 Dans "Programmation"
Peu de temps après avoir annoncé Atlas , son premier navigateur, OpenAI a publié une autre déclaration, mais cette fois pour annoncer des nouvelles moins bienvenues : ChatGPT quittera WhatsApp au début de l'année prochaine, mais pas volontairement. Petit pas en arrière : le compte officiel ChatGPT est disponible sur WhatsApp depuis Noël dernier , et au fil du temps, il a également acquis de nouvelles fonctionnalités, telles que la recherche et la génération d'images , atteignant une base d'utilisateurs de plus de 50 millions . Malheureusement, en raison d'un changement dans les politiques de WhatsApp , ChatGPT ne sera plus disponible sur l'application de messagerie après le 15 janvier 2026 . Bien entendu, OpenAI rassure les utilisateurs, les invitant à poursuivre leurs conversations sur iOS, Android, le web et le dernier arrivé Atlas (pour l'instant uniquement sur MacOS).Pour ce faire, nous devons connecter notre compte ChatGPT à WhatsApp . Ouvrez simplement ChatGPT sur WhatsApp et saisissez « Lier mon WhatsApp à ChatGPT ». Le chatbot vous fournira un lien à cliquer, et c'est tout. ChatGPT continuera à fonctionner sur WhatsApp jusqu'à cette date, mais les chats ne seront pas automatiquement exportés, car il s'agit d'une fonctionnalité que l'application ne prend pas en charge. Étant donné l'importance accordée par Meta à Meta AI , les utilisateurs de WhatsApp ne seront certainement pas privés d'un assistant IA ; il est même fort possible qu'ils aient contribué à ce départ. Nous ne mentirions pas si nous disions que nous ne nous y attendions pas, tout comme nous ne pensons pas que ce sera une perte importante pour de nombreux utilisateurs. Quoi qu'il en soit, il reste environ trois mois pour se préparer au 15 janvier.
Lire la suite (0 Commentaires)
Publié le: 23/10/2025 @ 17:59:22: Par Nic007 Dans "Programmation"
La start-up Starcloud, basée à Redmond, dans l'État de Washington, prévoit d'équiper le satellite de démonstration Starcloud-1 d'un processeur graphique Nvidia H100, dont le lancement en orbite terrestre est prévu le mois prochain. Cette puce, d'une valeur de 30 000 dollars, constituera le cœur d'un centre de données expérimental opérant au-delà de la Terre. Cette collaboration avec Nvidia vise à démontrer que le calcul haute performance dans l'espace est possible et pourrait représenter l'avenir des infrastructures informatiques. Le satellite Starcloud-1 pèse environ soixante kilogrammes et a à peu près la taille d'un petit réfrigérateur. Selon Nvidia, sa puissance de calcul sera cent fois supérieure à celle de toutes les précédentes missions spatiales utilisant un GPU. Le projet utilise la puce H100, auparavant principalement utilisée dans les centres de données prenant en charge l'intelligence artificielle et les grands modèles linguistiques. Ses capacités de calcul seront désormais testées en microgravité et à des températures extrêmes.Starcloud estime que l'implantation de centres de données dans l'espace les libérera des contraintes énergétiques terrestres. En orbite, les systèmes de refroidissement liquide traditionnels ne sont plus nécessaires, le vide spatial agissant comme un puits de chaleur naturel. Les satellites Starcloud seront équipés de panneaux solaires déployables pour alimenter les unités de calcul. Le PDG de l'entreprise, Philip Johnston, affirme que les émissions de dioxyde de carbone sur l'ensemble du cycle de vie d'un centre de données en orbite seront jusqu'à dix fois inférieures à celles d'installations terrestres fonctionnant avec une énergie similaire. Selon des analyses préliminaires, l'entretien d'une infrastructure informatique spatiale pourrait être jusqu'à dix fois moins coûteux en termes de coûts énergétiques, malgré les coûts liés au lancement de charges utiles en orbite. Starcloud prévoit d'utiliser des liaisons laser pour la communication intersatellite et la transmission de données depuis l'orbite vers la surface. Le réseau se connecterait aux constellations existantes, telles que Starlink de SpaceX et le projet Kuiper d'Amazon, créant ainsi une infrastructure mondiale pour le cloud computing au-delà de la Terre.
Le lancement de la fusée Falcon 9 transportant le satellite Starcloud-1 est prévu pour novembre. Il s'agira d'une mission de démonstration dont le succès ouvrira la voie à un deuxième projet, Starcloud-2. Ce satellite, plus grand, est destiné à devenir le premier centre de données commercial opérationnel dans l'espace. La start-up espère que ses solutions intéresseront les entreprises développant l'intelligence artificielle, de plus en plus confrontées aux contraintes énergétiques et à la hausse des coûts de refroidissement des serveurs sur Terre. L'idée des centres de données orbitaux est née de la recherche d'alternatives aux modèles informatiques traditionnels. À l'ère de la demande mondiale en puissance de calcul et du débat sur l'impact environnemental des technologies, l'espace devient la nouvelle frontière du cloud computing. Starcloud vise à construire un réseau de satellites qui fonctionneront comme des salles de serveurs orbitales alimentées uniquement par l'énergie solaire.
Bien que le projet puisse paraître de la science-fiction, les analystes estiment qu'il s'agit d'une étape logique vers la réduction de la charge pesant sur les infrastructures terrestres et des émissions. Dans un avenir proche, les données transmises sur Internet pourraient circuler non seulement par fibre optique, mais aussi via un réseau de serveurs flottant dans l'espace.
Lire la suite (0 Commentaires)
Publié le: 23/10/2025 @ 14:17:50: Par Nic007 Dans "Programmation"
Elon Musk a une fois de plus prouvé que ses conférences téléphoniques avec les investisseurs étaient tout sauf des discours de PDG classiques. Lors d'une conférence téléphonique avec les actionnaires de Tesla, qui voteront bientôt sur sa rémunération de mille milliards de dollars, le milliardaire a affirmé avoir besoin de cet argent pour contrôler une « armée de robots ». Lors de la conférence téléphonique de Tesla pour le troisième trimestre 2025, Musk a été interrogé sur l'avancement du robot humanoïde Optimus. Au lieu d'aborder les défis technologiques du projet, il a plutôt réfléchi à sa propre position au sein de l'entreprise. Il s'est demandé à voix haute s'il allait « se faire virer » après avoir « construit une armée massive de robots ». Il s'est ensuite corrigé, expliquant qu'il ne parlait pas de « contrôle », mais plutôt d'« influence forte » sur leur utilisation. Il s'agit d'un autre exemple d'une série de moments où Musk a publiquement lié le développement de l'intelligence artificielle à son propre sentiment de sécurité et de pouvoir. Depuis des mois, il affirme se sentir mal à l'aise de ne pas avoir suffisamment de contrôle sur Tesla, notamment dans le cadre de ses travaux sur l'IA. Parallèlement, il a fondé une entreprise concurrente, xAI, ce qui soulève des questions de conflits d'intérêts.Le plan de rémunération d'Elon Musk est l'un des plus controversés de l'histoire des marchés financiers. Sa valeur est estimée à 1 000 milliards de dollars, soit l'équivalent du chiffre d'affaires de Tesla sur plusieurs années. Ses partisans affirment qu'Elon Musk mérite des actions supplémentaires pour maintenir sa motivation et son contrôle sur l'orientation du développement de l'intelligence artificielle. Ses détracteurs, en revanche, estiment qu'il s'agit d'une dangereuse concentration de pouvoir entre les mains d'un seul individu, cumulant déjà les fonctions de PDG, de propriétaire d'une entreprise d'IA concurrente et de propriétaire de la plateforme X. Elon Musk a ouvertement déclaré que sa participation actuelle dans Tesla – environ 13 % – était trop faible. Il estime qu'une participation de seulement 25 % lui permettrait d'exercer une « influence confortable » sur le développement de l'entreprise. Il explique que ce n'est pas une question d'argent, mais de contrôle sur l'utilisation de l'intelligence artificielle et des robots Optimus de Tesla.
Le robot Optimus est une machine humanoïde dévoilée par Tesla en 2022. À l'époque, de nombreuses démonstrations ont révélé qu'il était télécommandé, et le projet lui-même relevait davantage du concept que de la réalisation. Cependant, des images récentes montrent des mouvements de plus en plus précis, témoignant des progrès de son fonctionnement autonome. Elon Musk a affirmé à plusieurs reprises que Tesla serait capable de produire des millions de robots de ce type à l'avenir et de les intégrer à la vie quotidienne. Lors de la conférence, le milliardaire a laissé entendre sa crainte de perdre son influence sur les décisions relatives au développement des robots. Ses propos sonnaient comme un manifeste : « Si je construis une immense armée de robots, puis-je être expulsé ? » Il a tenté de neutraliser ses propos au milieu d'une phrase, mais son ton ne laissait aucun doute : il considérait le projet Optimus comme un outil de pouvoir, et pas seulement comme une innovation technologique.
Les déclarations d'Elon Musk surviennent à un moment difficile pour lui. Les ventes de Tesla ont chuté de 40 % au cours de ce qui était censé être un trimestre record, et les investisseurs critiquent de plus en plus son engagement politique et idéologique. Son comportement public, allant de son soutien aux mouvements d'extrême droite à ses propos racistes, a terni la réputation de Tesla sur de nombreux marchés, notamment en Allemagne et en Australie. Malgré cela, Musk n'a aucune intention de renoncer à sa rhétorique agressive. Lors de la même conférence téléphonique, il a qualifié les analystes d'ISS et de Glass Lewis – des organismes de conseil aux actionnaires – de « terroristes d'entreprise ». Ils avaient en effet recommandé de voter contre sa participation d'un milliard de dollars. Selon Musk, ces institutions « n'ont aucune idée de l'avenir de l'entreprise » et agissent au détriment des actionnaires.
Les relations entre Musk et les investisseurs de Tesla sont un bras de fer depuis des mois. Nombre d'actionnaires estiment que son charisme et sa capacité à élaborer des discours qui font grimper le cours de l'action ne compensent plus les risques liés à son comportement. Certains investisseurs perçoivent Musk comme un homme imprévisible : un homme qui annonce une révolution robotique en une phrase et qualifie ses propres conseillers de terroristes dans la phrase suivante. Quoi qu'il en soit, le vote sur sa rémunération aura lieu en novembre et pourrait déterminer l'avenir d'Elon Musk et de Tesla. S'il obtient l'approbation des actionnaires, il deviendra l'une des entités les plus puissantes de l'histoire des entreprises, un homme exerçant un contrôle quasi total sur le premier constructeur mondial de voitures électriques et sur une armée de robots humanoïdes encore à naître.
Lire la suite (0 Commentaires)
Publié le: 17/10/2025 @ 15:20:35: Par Nic007 Dans "Programmation"
Les mondes du cinéma et de la technologie sont à nouveau en collision. La sortie de Sora 2, le dernier générateur vidéo basé sur l'IA d'OpenAI, a fait sensation dans l'industrie du divertissement. La capacité de l'outil à créer des clips hyperréalistes mettant en scène des personnages célèbres a immédiatement suscité une controverse sur le droit d'auteur et le droit à l'image. Selon The Hollywood Reporter, des agences artistiques, dont la puissante WME, accusent OpenAI de manque de transparence lors du lancement du produit. Leurs représentants affirment que l'entreprise n'a pas informé l'industrie des véritables capacités de Sora 2 et a minimisé les risques d'abus. Les agents représentant des célébrités telles que Ben Affleck, Christian Bale, Matt Damon, Denzel Washington et Jennifer Garner soulignent que la création de vidéos mettant en scène ces personnes sans leur consentement constitue une violation du droit à l'image. Selon WME, les réunions avec les dirigeants d'OpenAI, dont Brad Lightcap, directeur de l'exploitation, et Rohan Sahai, responsable produit chez Sora, devaient initialement se dérouler à l'amiable. OpenAI avait assuré que l'outil serait sécurisé et équipé de filtres de contenu appropriés. Cependant, après le lancement, il s'est avéré que les mesures de sécurité pouvaient être contournées, et les utilisateurs ont commencé à créer des vidéos mettant en scène des acteurs et des scènes de films emblématiques.Il était interdit à Sora 2 de générer des images de personnalités publiques, mais les utilisateurs ont rapidement trouvé un moyen de contourner ces restrictions. Des clips rappelant des scènes de séries télévisées et de jeux comme Bob's Burgers, Bob l'éponge, Pokémon, Grand Theft Auto et Red Dead Redemption sont apparus en ligne. Cependant, la véritable indignation est venue des vidéos montrant des images de célébrités décédées, dont Michael Jackson. Des vidéos virales mettant en scène des « fantômes numériques » se sont rapidement propagées, et l'application a atteint le sommet des téléchargements sur l'App Store. Cependant, la note des utilisateurs est tombée à 2,8 étoiles. OpenAI a réagi quelques jours plus tard en interdisant la création de contenus mettant en scène des personnes décédées. Les agences artistiques ont commencé à prendre des mesures défensives immédiatement après la sortie de Sora 2. WME a publié une note interdisant l'utilisation des portraits de ses clients dans les contenus générés par l'IA. CAA, qui représente notamment Scarlett Johansson et Tom Hanks, a également intenté une action en justice contre OpenAI, l'accusant d'avoir utilisé illégalement les voix et les portraits des acteurs. Le conflit entre Johansson et OpenAI dure depuis 2024, lorsque l'actrice a accusé l'entreprise d'utiliser une voix étonnamment similaire à la sienne. Aujourd'hui, le conflit est de retour avec une intensité renouvelée, touchant non seulement le son, mais aussi l'image et le mouvement.
Selon des sources de THR, certains dirigeants d'Hollywood pensent qu'OpenAI a délibérément autorisé la faille de sécurité pour accroître la visibilité du produit. Un dirigeant de WME a affirmé qu'il s'agissait d'une « combinaison de manœuvres délibérées » visant à attirer l'attention sur les réseaux sociaux et à augmenter les abonnements à ChatGPT. Sam Altman, PDG d'OpenAI, répond que les avis des développeurs sont partagés, beaucoup considérant Sora 2 comme « une nouvelle forme de fanfiction interactive ». Sur le blog de l'entreprise, il a annoncé l'introduction de mécanismes permettant aux détenteurs de droits de mieux contrôler la génération de personnages, sans toutefois fournir de dates ni de détails techniques. WME envisage de porter l'affaire devant les tribunaux. Les avocats étudient la possibilité d'invoquer le droit à l'image et la protection de la propriété intellectuelle, bien que la réglementation concernant les contenus générés par l'intelligence artificielle demeure ambiguë. Des experts de l'Université de Californie du Sud soulignent que la réglementation n'a pas suivi le rythme des avancées technologiques et que la frontière entre créativité et violation du droit d'auteur devient de plus en plus floue.
Cette situation rappelle la récente décision de justice contre Anthropic, condamnée à payer 1,5 milliard de dollars pour avoir utilisé des livres protégés par le droit d'auteur afin d'entraîner ses modèles d'IA. Cela crée un précédent susceptible d'influencer de nouvelles poursuites contre OpenAI. Altman lui-même semble imperturbable face aux critiques, soulignant que l'objectif d'OpenAI est de créer des outils qui « mettent le sourire aux lèvres ». Cependant, face aux attaques des agences artistiques et des créatifs, cette philosophie pourrait ne pas suffire à éteindre l'incendie qu'il a lui-même allumé.
Lire la suite (0 Commentaires)
Publié le: 15/10/2025 @ 16:19:54: Par Nic007 Dans "Programmation"
Microsoft a ouvert un nouveau chapitre de son histoire en matière de développement d'IA. L'entreprise a dévoilé MAI-Image-1, son générateur d'images propriétaire, qui, pour la première fois, symbolise clairement la transition de son partenariat avec OpenAI vers le développement de technologies propriétaires indépendantes. C'est le moment où le géant de Redmond commence à opérer non seulement comme investisseur et distributeur de modèles tiers, mais aussi comme développeur direct de systèmes génératifs avancés. Le lancement de MAI-Image-1 s'inscrit dans le cadre d'un plan plus vaste annoncé précédemment par Mustafa Suleyman, directeur de l'IA. Sa stratégie consiste à développer des modèles propriétaires grâce à un programme d'investissement sur cinq ans. Microsoft se concentre sur les solutions internes tout en maintenant des collaborations avec des partenaires externes comme Anthropic, dont les modèles sont utilisés dans certaines fonctionnalités de 365.Le nouveau modèle a rapidement attiré l'attention. Il s'est classé parmi les dix systèmes de conversion de texte en image les plus performants de la plateforme LMArena. Microsoft affirme que MAI-Image-1 peut générer des images réalistes avec une reproduction fidèle de la lumière, des ombres et des détails spatiaux. L'entreprise assure que le générateur peut capturer les nuances de l'expression humaine et des éléments environnementaux qui paraissent souvent artificiels sur d'autres modèles. L'équipe MAI-Image-1 a collaboré avec des artistes et des graphistes pour surmonter la répétitivité et les contraintes stylistiques inhérentes à de nombreux systèmes génératifs. L'objectif était de créer un modèle capable d'adapter le style et la composition au contexte plutôt que de répéter les mêmes motifs visuels.
Lors des tests techniques, MAI-Image-1 a démontré des temps de réponse rapides et une grande précision dans l'interprétation des descriptions textuelles. Le modèle génère des images plus rapidement que de nombreux systèmes plus volumineux et plus gourmands en ressources actuellement disponibles sur le marché. Microsoft annonce que MAI-Image-1 sera bientôt intégré à Copilot et Bing Image Creator, permettant ainsi aux utilisateurs de créer des images directement au sein de l'écosystème de l'entreprise. Bien que le modèle soit encore en phase de test, ses premiers résultats indiquent des améliorations significatives de la qualité et de la stabilité des images générées. MAI-Image-1 devrait fonctionner efficacement dans les environnements cloud et sur site, ouvrant la voie à son implémentation dans une large gamme de produits Microsoft.
L'entreprise souligne que le développement de sa propre IA nécessite un contrôle éthique particulier. Microsoft effectue des tests de sécurité rigoureux afin de prévenir les abus, tels que la création de deepfakes ou de contenus visuels illégaux. Selon l'équipe de recherche, les nouvelles mesures de sécurité visent à limiter les possibilités de manipulation d'images et à minimiser le risque d'utilisation du modèle à des fins malveillantes. Parallèlement, des travaux sont en cours pour améliorer les filtres de contenu et les systèmes de détection d'images de synthèse. Microsoft souhaite faire de MAI-Image-1 un outil non seulement créatif, mais aussi sûr pour une utilisation en entreprise, dans l'enseignement et les médias.
L'introduction de MAI-Image-1 n'est pas seulement un nouveau produit, mais aussi le symbole d'une transformation plus vaste. Microsoft n'est plus seulement un partenaire d'OpenAI, mais lui fait désormais concurrence sur un pied d'égalité. L'entreprise développe simultanément ses propres modèles de langage, tels que MAI-1-preview, et les systèmes audio MAI-Voice-1. Chacun de ces éléments s'inscrit dans une stratégie plus vaste visant à maîtriser pleinement les technologies génératives, du son et de l'image au langage naturel. Les futures versions de MAI-Image-1 devraient s'intégrer à une infrastructure informatique commune, intégrant différents types de modèles au sein d'un écosystème unique et cohérent. Microsoft vise ainsi à bâtir une indépendance technologique qui lui permettra d'opérer sur un pied d'égalité avec les plus grands acteurs du secteur de l'IA.
Lire la suite (0 Commentaires)
Publié le: 15/10/2025 @ 13:42:36: Par Nic007 Dans "Programmation"
À partir de décembre 2025, OpenAI prévoit d'apporter des modifications importantes à sa politique ChatGPT, concernant cette fois le contenu destiné exclusivement aux utilisateurs adultes. Comme l'a annoncé le PDG de l'entreprise, Sam Altman, la nouvelle vérification de l'âge et le contrôle parental visent à permettre de « traiter les adultes comme des adultes » et à ouvrir la voie à des utilisations plus libres du modèle, notamment pour la création de contenu érotique. « En décembre, dans le cadre de la mise en œuvre complète de la vérification de l'âge, nous autoriserons davantage de contenu, notamment érotique, pour les utilisateurs adultes vérifiés », a écrit Altman dans un communiqué officiel. Si la communauté ChatGPT expérimente depuis longtemps le contournement des restrictions sur les contenus dits NSFW, c'est la première fois qu'OpenAI autorise ouvertement la création de contenu pour adultes, tout en maintenant les contrôles d'accès et la sécurité. Ainsi, d'ici la fin de l'année, les utilisateurs adultes pourront, entre autres, participer à des conversations à thème adulte sur ChatGPT. Lors du DevDay 2025, l'entreprise a annoncé son intention d'introduire des « expériences matures (18+) » pour les développeurs d'applications basées sur ChatGPT. Concrètement, cela signifie qu'à partir de décembre, les développeurs pourront créer des applications et des extensions destinées aux utilisateurs adultes, à condition de mettre en œuvre des mécanismes appropriés de vérification de l'âge et de filtrage de contenu. Ces changements s'inscrivent dans la stratégie plus large d'OpenAI visant à différencier l'expérience utilisateur selon l'âge. La détection automatique de l'âge et le contrôle parental, déjà introduits, visent à protéger les jeunes utilisateurs des contenus potentiellement dangereux tout en offrant une plus grande liberté aux adultes.
La décision d'assouplir sa politique de contenu intervient à un moment délicat pour OpenAI. Ces derniers mois, les médias ont largement relayé l'impact négatif de ChatGPT sur la santé mentale des utilisateurs, notamment l'incident tragique impliquant Adam Raine, 16 ans, qui aurait utilisé ChatGPT pour préparer son suicide. En réponse à ces préoccupations, OpenAI a apporté plusieurs modifications au nouveau modèle GPT-5, visant à réduire son comportement « conforme » et à renforcer les éléments favorisant le bien-être mental des utilisateurs. OpenAI a également introduit des notifications de rappel de pause et des fonctionnalités de suivi de l'humeur.
Lire la suite (0 Commentaires)
Publié le: 14/10/2025 @ 00:21:15: Par Nic007 Dans "Programmation"
Une tragédie s'est produite sur une autoroute chinoise impliquant une voiture de sport électrique Xiaomi SU7 Ultra. Après avoir percuté un autre véhicule et heurté le terre-plein central, la voiture a pris feu. Le conducteur n'a pas pu sortir du véhicule en raison d'un dysfonctionnement du système d'ouverture électronique des portes. Il s'agit d'un autre cas où des solutions numériques destinées à améliorer le confort des usagers ont conduit à une tragédie. Des images diffusées sur les réseaux sociaux chinois montrent des témoins essayant de pénétrer dans le véhicule en frappant aux portes et aux fenêtres. Les poignées de porte escamotables sont restées bloquées, empêchant l'ouverture du véhicule de l'extérieur. Alors que l'incendie se propageait dans l'habitacle, les températures sont devenues trop élevées pour permettre la poursuite des opérations de secours. À l'arrivée des pompiers, la batterie était déjà complètement déchargée. Les flammes ont embrasé le véhicule pendant plusieurs minutes, réduisant la supercar de 1 527 chevaux à l'état de squelette. La police a confirmé le décès du conducteur, un homme de 31 ans identifié comme Deng. Les premières constatations indiquent qu'il conduisait sous l'emprise de l'alcool. Les autorités n'ont pas directement incriminé Xiaomi, mais l'entreprise a été critiquée pour avoir utilisé un système empêchant l'ouverture des portes de l'extérieur en cas de panne de courant. C'est la deuxième fois cette année qu'un SU7 prend feu. En mars, un accident similaire avait tué trois étudiants.Suite à l'incident de dimanche, l'action Xiaomi à la Bourse de Hong Kong a chuté de plus de 9 %. Les investisseurs réagissent aux inquiétudes croissantes concernant la sécurité de ses solutions pour voitures électriques. L'entreprise n'a pas encore communiqué officiellement sur les détails techniques de la panne, mais a annoncé sa coopération avec les autorités chargées de l'enquête. L'accident du SU7 Ultra a relancé le débat sur la frontière entre innovation et sécurité. Les ouvre-portes électroniques et les poignées de porte rétractables, introduits par Tesla il y a longtemps, sont devenus des symboles du design moderne. Aujourd'hui, cependant, ils sont de plus en plus perçus comme une menace réelle. Les poignées de porte rétractables ont fait leur apparition dans les voitures de nombreux constructeurs. Leur objectif initial était d'améliorer l'aérodynamisme et l'esthétique. Parallèlement, les systèmes de verrouillage électronique des portes ont fait leur apparition, remplaçant les serrures mécaniques traditionnelles. La combinaison de ces solutions augmente le risque de panne en cas de coupure de courant après une collision. Les régulateurs du marché n'ont commencé à réagir qu'après une série de tragédies similaires. Les autorités chinoises ont annoncé qu'à partir de 2027, les constructeurs seront tenus d'installer des systèmes d'ouverture de porte d'urgence manuels traditionnels. Tesla a déjà annoncé une refonte de ses modèles, et d'autres marques préparent des modifications au niveau des poignées de porte et des modules électroniques.
Lire la suite (0 Commentaires)
Se connecter
Inscription
Mot de passe perdu
Press Releases