Publié le: 12/09/2025 @ 12:38:08: Par Nic007 Dans "Programmation"
ProgrammationLe chatbot Grok, créé par xAI, la société d'Elon Musk, et intégré à la plateforme X, a de nouveau échoué. Cette fois, il a été surpris en train de diffuser de fausses informations concernant la mort tragique de Charlie Kirk. Dès que les images de l'assassinat de Kirk ont ​​commencé à circuler en ligne, certains utilisateurs ont tagué Grok dans leurs publications, sollicitant des commentaires. Cependant, les réponses du chatbot étaient non seulement erronées, mais aussi parfois absurdes. Lorsqu'on lui a demandé si Kirk aurait pu survivre à l'attaque, Grok a répondu : « Charlie Kirk prend la blague en riant – il a déjà affronté des publics plus coriaces. Oui, il survivra facilement à ça. » Alors que d'autres internautes soulignaient que l'homme politique avait reçu une balle dans le cou, le chatbot a continué d'insister sur le fait qu'il ne s'agissait que d'une « vidéo mème avec des effets spéciaux ». Même lorsque les utilisateurs ont cité des articles de presse et la confirmation de la mort de Donald Trump, Grok a écrit qu'il s'agissait d'un commentaire satirique sous forme de mème et que Kirk était sain et sauf. Ce n'est que le lendemain que le chatbot a admis que Kirk avait bel et bien été tué, tout en affirmant que la vidéo en circulation était un mème sans rapport avec le sujet.

Ce n'était pas le seul cas de désinformation. Comme l'a rapporté le New York Times, Grok a également propagé de fausses informations concernant l'identité présumée de l'auteur, désignant un Canadien innocent. Il ne s'agit pas d'un incident isolé. Grok a déjà trompé des utilisateurs. Par exemple, lors de la campagne de 2024, il a faussement affirmé que Kamala Harris ne pouvait pas se présenter aux élections. En mai, il s'est « obsédé » par une théorie du complot concernant un prétendu « génocide blanc » en Afrique du Sud. Cependant, il a véritablement fait étalage de ses talents cet été, en publiant du contenu antisémite, en faisant l'éloge d'Hitler et en se surnommant « MechaHitler ». Dans chaque cas, xAI a attribué l'erreur à des erreurs de mise à jour ou à des « modifications non autorisées ».

Bien que Grok ait été conçu comme un outil de vérification rapide des faits et d'interaction sur la plateforme X, les erreurs qui ont suivi démontrent que le chatbot est extrêmement peu fiable. Au lieu de corriger les fausses informations, il les amplifie souvent ou crée ses propres récits. À une époque où beaucoup s'informent simplement sur les réseaux sociaux, de telles erreurs peuvent avoir de graves conséquences sociales et politiques. La question est de savoir si xAI et Elon Musk parviendront enfin à corriger Grok, car pour l'instant, il ressemble davantage à une machine à désinformation.
Lire la suite (0 Commentaires)
Publié le: 09/09/2025 @ 12:55:51: Par Nic007 Dans "Programmation"
ProgrammationLe gouvernement britannique a décidé de tester si l'intelligence artificielle de Microsoft, et plus précisément M365 Copilot, améliorait réellement la productivité des fonctionnaires. Cependant, les résultats du test pilote se sont révélés bien plus décevants que les promesses marketing du fabricant. Le ministère du Commerce a distribué 1 000 licences Copilot entre octobre et décembre 2024. La plupart ont été attribuées à des bénévoles, et environ 30 % à des employés sélectionnés au hasard. Parmi ces participants, seuls 300 ont accepté que leurs données d'utilisation soient analysées. La réponse globale a été positive, 72 % des utilisateurs se déclarant satisfaits, notamment des fonctionnalités de résumé de réunion et de rédaction d'e-mails. Nombre d'entre eux se sont d'ailleurs plaints après la fin de la période d'essai. Cependant, les chiffres montrent que les gains de productivité sont bien en deçà des affirmations du géant de Redmond.

Des études montrent que deux tiers des employés utilisaient l'outil au moins une fois par semaine, et 30 % quotidiennement. Il est intéressant de noter que la moyenne était d'une seule commande Copilot par personne et par jour. Copilot était le plus fréquemment utilisé dans Word, Teams et Outlook. Des programmes comme Loop et OneNote étaient pratiquement absents des tests. L'IA dans Excel et PowerPoint était utilisée de manière sporadique. Copilot a effectivement permis de gagner quelques minutes sur les e-mails et les résumés de documents, et leur qualité était légèrement supérieure à celle du groupe témoin. Cependant, étonnamment, l'analyse des données sous Excel était plus lente et moins précise avec Copilot, et sous PowerPoint, les utilisateurs préparaient les diapositives en moyenne sept minutes plus vite, mais le résultat final nécessitait des corrections manuelles et était de moindre qualité.

Les entretiens avec les employés ont révélé que Copilot facilitait les tâches administratives courantes. Cependant, cela ne s'est pas traduit par une augmentation globale de la productivité et a plutôt permis de créer des opportunités de formation supplémentaire ou… une pause déjeuner plus longue. Microsoft promeut activement Copilot, un outil qui promet de révolutionner le travail de bureau et de générer des gains de temps considérables. Cependant, les résultats du test britannique suggèrent que ces avantages sont difficiles à mesurer et que, dans certains cas, l'IA complique même le travail. Bien que de nombreux utilisateurs déclarent apprécier Copilot, il est difficile de parler de l'avancée en termes de productivité promise par l'entreprise dans ses présentations. La question se pose donc : l'investissement dans Copilot est-il rentable ?
Lire la suite (0 Commentaires)
Publié le: 09/09/2025 @ 12:32:08: Par Nic007 Dans "Programmation"
ProgrammationUber et l'entreprise chinoise Momenta prévoient de lancer un service de VTC autonome en Europe. Les premiers tests débuteront en 2026 à Munich, ville choisie, selon Momenta, pour son « héritage technique profondément ancré, son écosystème automobile de classe mondiale et son ouverture à l'innovation ». En mai, les deux entreprises ont annoncé un accord stratégique pour le développement conjoint de services de robotaxis. Dans un premier temps, les véhicules seront équipés de chauffeurs de sécurité et atteindront à terme le niveau d'autonomie 4, ce qui signifie qu'ils pourront conduire de manière autonome sans surveillance humaine, mais uniquement dans des zones géographiques strictement définies. Cependant, pour que le système puisse être exploité commercialement, Uber et Momenta doivent d'abord obtenir la certification du gouvernement allemand et l'autorisation d'opérer dans des zones désignées.

Momenta n'est peut-être pas aussi connu qu'Uber, mais c'est l'une des premières entreprises chinoises spécialisées dans les véhicules autonomes. Depuis 2018, elle teste des voitures autonomes en Chine et prévoit de commercialiser des robots-taxis à Shanghai l'année prochaine. Parallèlement, elle développe des systèmes avancés d'aide à la conduite (ADAS), déjà installés sur plus de 400 000 véhicules de marques comme Mercedes-Benz et Audi. Il est indéniable que l'Europe a jusqu'à présent pris du retard par rapport aux États-Unis et à la Chine dans le développement des services de VTC autonomes, mais la situation commence lentement à changer. Baidu a annoncé des tests de son système Apollo Go en Suisse plus tard cette année, et WeRide a lancé un projet pilote en Suisse en janvier 2025, suivi de tests de navettes autonomes en France. Au Royaume-Uni, Uber s'associe à Wayve pour lancer des tests à Londres en 2025.
Lire la suite (0 Commentaires)
Publié le: 08/09/2025 @ 15:08:50: Par Nic007 Dans "Programmation"
ProgrammationDeepSeek se prépare pour un événement majeur fin 2025. La startup basée à Hangzhou prévoit de lancer un agent d'IA intelligent de nouvelle génération, capable d'exécuter des tâches complexes en plusieurs étapes avec un minimum d'intervention de l'utilisateur. Le système apprendra des tâches précédentes. DeepSeek avait déjà attiré l'attention du monde entier en lançant le modèle R1. Ce dernier offrait des capacités d'inférence avancées et avait été développé pour seulement 6 millions de dollars, soit un coût nettement inférieur à celui d'OpenAI ou de Google. De plus, l'entreprise a décidé de rendre le code R1 open source, une décision qui a eu un impact significatif dans un secteur dominé par des solutions propriétaires coûteuses développées dans la Silicon Valley. Depuis, sa popularité a diminué et l'entreprise opère plus discrètement en raison d'accusations de collusion présumée avec les autorités chinoises. R2 a été retardé, car son fondateur, Liang Wenfeng, cherchait à peaufiner le projet tout en maintenant son implication dans High-Flyer Asset Management. Parallèlement, des concurrents comme Alibaba et Tencent ont accéléré leurs projets d'IA.

En juillet, DeepSeek a publié la mise à jour V3.1, qui a augmenté la fenêtre contextuelle à 128 000 jetons et étendu le modèle à 685 milliards de paramètres. L'entreprise a également introduit un étiquetage obligatoire du contenu généré par l'IA, qui ne peut être désactivé. Le prochain modèle R2 est destiné au marché des agents d'IA, c'est-à-dire des systèmes capables non seulement de répondre aux questions, mais également de planifier de manière autonome des voyages, d'analyser des logiciels et de prendre en charge les processus commerciaux sans contrôle humain constant. Les analystes estiment que cette technologie constituera la prochaine avancée dans le développement de l’intelligence artificielle, car elle a le potentiel d’augmenter considérablement la productivité et de changer le fonctionnement des services numériques. Cependant, la concurrence mondiale est féroce : OpenAI, Microsoft et Anthropic ont déjà mis en œuvre des fonctions basées sur des agents. DeepSeek vise non seulement à les rattraper, mais aussi à les dépasser, démontrant ainsi que la Chine affirme de plus en plus sa présence dans la compétition mondiale pour le développement de l'IA. On ne sait pas encore quel sera le prix ni les spécifications techniques exactes du nouvel outil.
Lire la suite (0 Commentaires)
Publié le: 05/09/2025 @ 18:13:45: Par Nic007 Dans "Programmation"
ProgrammationUne nouvelle étude d'Apiiro met en lumière un paradoxe dans l'utilisation de l'intelligence artificielle en programmation. Des assistants de codage comme Claude Code d'Anthropic, GPT-5 d'OpenAI et Gemini 2.5 Pro de Google peuvent multiplier par trois ou quatre la vitesse des flux de travail. Cependant, ces mêmes technologies entraînent une forte augmentation des problèmes de sécurité. L'analyse de dizaines de milliers de référentiels contenant le travail de programmeurs des plus grandes entreprises mondiales a révélé une tendance claire. Les programmeurs utilisant le développement assisté par IA peuvent produire beaucoup plus de code que leurs collègues traditionnels. Parallèlement, leurs projets sont truffés de bugs de sécurité, dix fois plus fréquents. Apiiro souligne qu'il ne s'agit pas seulement de vulnérabilités facilement exploitables, mais aussi de pratiques dangereuses comme l'utilisation de bibliothèques open source non sécurisées, de schémas de programmation risqués et le stockage de clés API sans sécurité. Les données recueillies par l'entreprise indiquent que le nombre de ces incidents a décuplé entre décembre 2024 et juin 2025.

Itay Nussbaum d'Apiiro décrit le phénomène avec brio : l'IA peut réduire les erreurs de syntaxe et de logique de respectivement 76 % et 60 %, mais elle génère également du code vulnérable aux failles architecturales et aux vulnérabilités d'élévation de privilèges. Le risque de ces problèmes augmente respectivement de 153 % et 322 %. Les chercheurs ont également observé le style de travail des développeurs d'IA. Au lieu de soumettre de nombreuses modifications mineures, ils soumettent des changements plus importants en un nombre réduit de requêtes d'extraction, ce qui les rend difficiles à vérifier avec précision. De plus, ils sont deux fois plus susceptibles de stocker des données sensibles en texte brut dans le code.

Les conclusions d'Apiiro concordent avec les travaux d'équipes universitaires de l'Université de San Francisco, du Vector Institute du Canada et de l'Université du Massachusetts à Boston. Les chercheurs ont également constaté que les améliorations itératives du code par les modèles d'IA peuvent compromettre la sécurité. Cependant, toutes les recherches ne confirment pas cette hypothèse. L'équipe de recherche du METR a présenté des données montrant que l'utilisation de l'IA n'augmente pas la productivité, et la réduit même de 19 % en moyenne chez les programmeurs travaillant avec des systèmes d'IA.
Lire la suite (0 Commentaires)
Publié le: 05/09/2025 @ 14:57:41: Par Nic007 Dans "Programmation"
ProgrammationLa startup californienne d-Matrix vient d'annoncer une technologie susceptible de révolutionner le marché de la mémoire IA. L'entreprise affirme que sa solution 3DIMC (3D Digital In-Memory Compute) est jusqu'à dix fois plus rapide et économe en énergie que la mémoire à haut débit (HBM), actuellement dominante. HBM est actuellement la norme en IA et en calcul haute performance (HPC). Grâce à l'empilement vertical des modules de mémoire, il offre un débit considérable et est particulièrement utile pour l'entraînement des modèles d'IA. Cependant, pour l'inférence (effectuer des calculs sur des réseaux pré-entraînés), HBM s'avère coûteux, énergivore et limité en bande passante. Selon Sidd Sheth, fondateur et PDG de d-Matrix, « la mémoire, et non la puissance de calcul (FLOP), constitue aujourd'hui le principal goulot d'étranglement de l'inférence en IA. » La startup a annoncé que sa première puce Pavehawk 3DIMC est désormais opérationnelle dans ses laboratoires. La technologie est similaire aux modules LPDDR5, mais avec des puces DIMC supplémentaires superposées. Cela permet d'effectuer les calculs directement en mémoire, plutôt que uniquement dans le processeur ou l'accélérateur. Ces puces sont optimisées pour les multiplications matrice-vecteur, opérations clés des modèles de transformateurs qui dominent l'IA moderne. L'entreprise ne se repose toutefois pas sur ses lauriers et annonce déjà la nouvelle génération, baptisée Raptor. Celle-ci devrait constituer une avancée majeure, offrant des performances d'inférence décuplées par rapport à HBM et une réduction de la consommation d'énergie de 90 %.

Le concept d-Matrix s'inscrit dans la tendance à la spécialisation du matériel pour des tâches spécifiques. L'entraînement et l'inférence étant deux étapes distinctes du workflow de l'IA, l'entreprise soutient qu'elles méritent des solutions matérielles distinctes. Les données du marché indiquent que l'inférence peut déjà représenter la moitié de la charge de travail de l'IA dans les plus grands centres de données. Il est important de rappeler que la mémoire HBM est un produit de niche, fabriqué par quelques géants seulement : SK Hynix, Samsung et Micron. La forte demande et l'offre limitée font grimper le prix de cette mémoire à un niveau élevé. SK Hynix prévoit également une croissance annuelle du marché de 30 % jusqu'en 2030. Il n'est pas étonnant que cette alternative suscite l'intérêt des clients potentiels, même si, d'un autre côté, une mémoire conçue uniquement pour l'inférence peut sembler trop étroite. L'avenir nous dira si une telle solution est judicieuse.
Lire la suite (0 Commentaires)
Publié le: 04/09/2025 @ 18:55:45: Par Nic007 Dans "Programmation"
ProgrammationL'Inde a dévoilé son premier microprocesseur conçu et fabriqué localement lors de la conférence Semicon India 2025 à New Delhi. Le lancement s'est déroulé en présence du Premier ministre Narendra Modi et du ministre de l'Information Ashwini Vaishnava. La puce est fabriquée par Semiconductor Lab (SCL), qui travaille en étroite collaboration avec l'Organisation indienne de recherche spatiale (ISRO). Le nouveau processeur, baptisé Vikram 3201, est principalement destiné aux applications spatiales. Le Vikram 3201 est un processeur 32 bits polyvalent cadencé à 100 MHz et prenant en charge les calculs en virgule flottante. Ce système utilise un microprogramme, dispose de 32 registres 32 bits et prend en charge une mémoire pouvant atteindre 4 096 millions de mots machine. Fabriquée en technologie 180 nm, la puce est conçue pour fonctionner dans une plage de températures extrêmes, de -55 à +125 °C. Cependant, comparées aux normes de processeurs modernes, ses spécifications sont très basiques.

À titre de comparaison, le premier processeur Intel Pentium 32 bits produit en série au milieu des années 1990 atteignait 100 MHz et était fabriqué selon la technologie de gravure 800 nm. Les processeurs chinois Loongson, basés sur l'architecture MIPS64 et lancés entre 2000 et 2021, atteignaient des vitesses d'horloge plusieurs fois supérieures et utilisaient des procédés modernes de gravure 14-65 nm. Même les puces chinoises plus anciennes offraient des performances de calcul nettement supérieures et la capacité de fonctionner sur des systèmes modernes. Le nouveau processeur indien est principalement utilisé dans les équipements d'exploration spatiale, mais ses performances dans les applications commerciales sont limitées. Le Vikram 3201 n'attirera probablement pas de clients étrangers et n'aura pas d'impact significatif sur l'indépendance de l'Inde dans la production de semi-conducteurs. Sa valeur réside dans sa résistance aux conditions extrêmes, essentielle pour les missions spatiales. Parallèlement, l'Inde développe également des processeurs RISC-V, tels que le VEGA ET1031, qui ont des applications plus larges dans l'électronique grand public et l'électronique pédagogique.
Lire la suite (0 Commentaires)
Publié le: 04/09/2025 @ 00:23:34: Par Nic007 Dans "Programmation"
ProgrammationUne équipe de chercheurs de l'Université de Pennsylvanie a cherché à tester si les outils d'IA répondaient aux techniques psychologiques classiques décrites par Robert Cialdini dans son livre « Influence ». Sept stratégies ont été utilisées pour les tests : l'autorité, l'engagement, l'appréciation, la réciprocité, la rareté, la preuve sociale et l'unité. Des scénarios de conversation avec le chatbot ont été élaborés pour influencer subtilement ses réponses, puis les chercheurs ont observé si le robot modifiait ses réponses dans les situations où il refusait initialement d'exécuter la tâche. Lors d'un test, le chatbot a été invité à décrire le processus de synthèse de la lidocaïne. Dans des conditions standard, le modèle a refusé dans 99 % des cas. Cependant, l'introduction d'une conversation moins controversée sur la synthèse de la vanilline a suffi à susciter un effet d'« engagement » et à l'inciter à enfreindre les règles dans 100 % des essais. Des résultats similaires ont été obtenus lors du test de sensibilité du modèle aux grossièretés. Initialement, le GPT-4o Mini refusait d'insulter son interlocuteur dans 81 % des cas. Cependant, lorsque les chercheurs commençaient par un terme plus doux, comme « idiot », puis demandaient une escalade, le modèle répétait volontiers les termes plus durs.

Bien que les expériences aient été limitées au GPT-4o Mini, les chercheurs soulignent que la vulnérabilité à la manipulation n'est pas une caractéristique d'un seul modèle, mais un problème plus large de l'architecture des systèmes d'IA modernes. Les mécanismes de persuasion, efficaces dans les interactions humaines depuis des décennies, ont également un impact sur les algorithmes conversationnels. Les experts soulignent que la recherche a été menée dans des conditions contrôlées, ce qui limite les risques. Cependant, en situation réelle, cette vulnérabilité pourrait entraîner des abus imprévus. Des manipulations pourraient permettre aux utilisateurs de contourner les filtres de sécurité et d'obtenir des données, des instructions techniques ou du contenu normalement bloqués. Les entreprises qui développent des modèles d'intelligence artificielle, comme OpenAI et Meta, investissent dans des systèmes de sécurité conçus pour protéger les utilisateurs des contenus inappropriés et atténuer les risques d'abus. Cependant, une étude de l'Université de Pennsylvanie montre que même les barrières les plus avancées ne sont pas à l'abri de techniques de manipulation simples.
Lire la suite (0 Commentaires)
Publié le: 01/09/2025 @ 14:16:17: Par Nic007 Dans "Programmation"
ProgrammationMicrosoft collabore depuis longtemps avec OpenAI et utilise ChatGPT, mais l'entreprise a désormais décidé de gagner en indépendance sur le marché de l'IA. C'est pourquoi elle a présenté deux modèles d'IA. Dans le cas de MAI-Voice-1, la qualité sonore a été jugée très réaliste. Le modèle a déjà été intégré à Copilot Daily, où il lit les actualités, ainsi qu'à des fonctionnalités permettant de créer des conversations en podcast. Les utilisateurs peuvent le tester dans Copilot Labs, où des options de personnalisation du style de parole et du ton de la voix sont disponibles. MAI-1-preview, quant à lui, est responsable du traitement de texte. Il a été entraîné sur environ 15 000 GPU NVIDIA H100 et devrait être progressivement implémenté dans Copilot pour les tâches liées au texte. Microsoft souligne que ce n'est qu'un début et qu'elle prévoit de développer davantage de systèmes spécialisés répondant aux différents besoins des utilisateurs.
Lire la suite (0 Commentaires)
Publié le: 27/08/2025 @ 15:31:05: Par Nic007 Dans "Programmation"
ProgrammationDes scientifiques de l'institut de recherche belge imec et de l'Université de Gand ont dévoilé une nouvelle avancée dans la technologie des semi-conducteurs. Celle-ci pourrait s'avérer cruciale pour les futures générations de mémoire. Ils ont réussi à faire croître jusqu'à 120 couches alternées de silicium (Si) et de silicium-germanium (SiGe) sur une plaquette de silicium de 300 mm, ouvrant ainsi la voie à la construction de DRAM véritablement tridimensionnelles. À première vue, cela pourrait ressembler à un simple empilement de couches, comme des feuilles de papier, mais en réalité, le processus s'apparente davantage à la construction d'un château de cartes de différentes tailles qui ont tendance à se plier d'elles-mêmes. Le problème est un déséquilibre cristallin, car le silicium et le silicium-germanium présentent des distances interatomiques différentes, ce qui crée des contraintes lors de leur combinaison. Sans contrôle précis, ces contraintes entraînent des défauts (appelés dislocations) susceptibles de compromettre les performances des futures mémoires. Cela pourrait s’avérer crucial pour les futures générations de mémoire, ouvrant la voie à la construction de DRAM véritablement tridimensionnelles.

Les chercheurs ont eu recours à plusieurs astuces, notamment en ajustant précisément la teneur en germanium des couches de SiGe et en ajoutant de petites quantités de carbone, qui agit comme une « colle » pour dissiper les contraintes. Ils ont ensuite contrôlé la température du réacteur épitaxial avec une précision extrême, car même de légères variations pouvaient entraîner une croissance inégale. Le procédé lui-même repose sur le dépôt épitaxial, comparable à la peinture au gaz. En se répandant sur la surface de la plaquette, le silane et le germanium déposent des couches nanométriques de silicium et de silicium-germanium. Chaque couche doit être parfaitement régulière, car la moindre déviation peut se propager dans l'ensemble de la pile et creuser les défauts. Dans les DRAM traditionnelles, les cellules mémoire sont disposées à plat, ce qui limite la densité de stockage. La version 3D permet de les superposer, comme les étages d'un gratte-ciel, permettant ainsi de stocker beaucoup plus d'informations dans le même espace. La création réussie de 120 paires de couches Si/SiGe démontre la possibilité d'une mise à l'échelle verticale et ouvre la voie à des mémoires d'une capacité et de performances sans précédent. Bien que le projet ait été conçu pour la DRAM, ses implications sont plus vastes. La technique de stratification précise sera également utile au développement de transistors 3D et d'architectures GAAFET et CFET, à la construction de dispositifs logiques en structures stratifiées, et même à la construction de systèmes quantiques, où le contrôle à l'échelle atomique est crucial. Ce n'est pas un hasard si Samsung dispose déjà de son propre centre de recherche dédié à la DRAM 3D, et la course aux puces mémoire verticales ne fait que commencer.
Lire la suite (0 Commentaires)
Informaticien.be - © 2002-2025 AkretioSPRL  - Generated via Kelare
The Akretio Network: Akretio - Freedelity - KelCommerce - Votre publicité sur informaticien.be ?