Code Rouge
Red Is Dead
Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 139. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 9 mins
Code rouge ou pas, le modèle c’est le produit. OpenAI vient s’en rappeler après la sortie de Gemini 3, la dernière version du modèle de langage de Google.
Il y a 3 ans, Google, empêtré en interne dans des schémas du passé, avait lancé son “Red Code” peu après la sortie de ChatGPT. Dans l’année qui a suivi, des changements à la tête de la division moteur de recherche avec l’arrivée de Liz Reid, la prise de pouvoir de DeepMind sur tout ce qui concerne l’IA et les développements, mais aussi de son patron Demis Hassabis pesant jusque dans la stratégie globale d’Alphabet, la maison mère de Google, ont permis de renverser la vapeur.
Comment ? En capitalisant les principaux efforts sur un seul modèle décliné sur tous les tons. Et en multipliant les projets de fonctionnalités et les points d’accès à l’IA générative et conversationnelle dans TOUS les produits Google. L’icône magique de l’IA est présente quasiment partout de Gmail au Pixel 10, dans la Search Console et Google Sheets, jusque dans la gestion des Ads et l’automatisation des développements. Et bien sûr, dans le moteur de recherche… sauf en France.
Et puis il y a le travail de longue haleine entamé dès 2016 avec les TPU, ces puces dédiée à l’IA, qui permettent maintenant à Google d’être un des acteurs majeurs à ne pas dépendre de NVIDIA pour l’entrainement et l’inférence de ses modèles comme Gemini 3. Sans même parler de l’infrastructure Cloud démentielle construite depuis des années. Et faut-il parler de nouveau des Transformers…
Google et l’IA, c’est une relation construite sur le temps long, des entités et des esprits similaires qui se ressemblent et s’assemblent, des concepts communs, des confiances partagées, un vécu entremêlé depuis bien plus de trois ans, loin de se déliter à la première chamaillerie ou incompréhension. Oui Sam, tu fais probablement bien de lancer ta propre version du “Red Code” et de demander à tes équipes de se concentrer sur le modèle.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Claude Opus 4.5 pour les résumés des articles sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu de Claude Opus 4.5.
L’image d’illustration ci-dessous a été générée par Nano Banana Pro
📰 Les 3 infos de la semaine
📺 Amazon lance la recherche de scènes par description vocale sur Fire TV
Amazon déploie une nouvelle fonctionnalité pour ses appareils Fire TV qui permet de localiser des scènes précises dans les films disponibles sur Prime Video. Le principe est simple : l’utilisateur décrit verbalement la scène qu’il recherche à Alexa Plus, et l’assistant vocal l’y conduit directement.
La fonctionnalité repose sur plusieurs modèles d’IA, notamment Amazon Nova et Anthropic Claude, intégrés via Amazon Bedrock. Elle s’appuie également sur X-Ray, l’outil qui fournit des informations contextuelles sur les contenus visionnés. Le système analyse les descriptions de scènes, les noms de personnages, les acteurs et les répliques célèbres pour identifier le moment recherché.
Les utilisateurs peuvent formuler des demandes variées : retrouver la scène de la poursuite au rocher dans Les Aventuriers de l’arche perdue, le passage où Sophie chante « Honey Honey » dans Mamma Mia, ou encore la scène des cartes dans Love Actually. Le système est capable d’identifier le film concerné même sans que son titre soit mentionné.
À son lancement, la fonctionnalité couvre des milliers de films et des dizaines de milliers de scènes indexées. Amazon prévoit d’étendre cette capacité aux séries télévisées prochainement. Le mois dernier, l’entreprise avait également lancé des récapitulatifs de séries générés par IA.
Pourquoi est-ce important ? Un exemple supplémentaire de l’utilisation du langage naturel comme interface. Si révolution il y a, elle passe d’abord par là.
Pour aller plus loin : TechCrunch, The Verge, The Hollywood Reporter
⚠️ Microsoft revoit à la baisse ses ambitions commerciales pour les agents IA - sans dec…
Microsoft a réduit les objectifs de croissance assignés à ses équipes commerciales pour plusieurs de ses produits d’intelligence artificielle. Cette décision fait suite à un exercice fiscal décevant : la majorité des commerciaux n’ont pas atteint leurs quotas de vente pour les outils IA destinés aux entreprises lors de l’année terminée en juin.
Les agents IA, présentés comme capables d’automatiser des tâches complexes en plusieurs étapes, peinent à convaincre les clients professionnels. Les entreprises pointent la difficulté de mesurer le retour sur investissement de ces technologies et leur manque de fiabilité pour des opérations sensibles. Le fonds d’investissement Carlyle, par exemple, a réduit ses dépenses sur Copilot Studio après avoir rencontré des problèmes pour faire communiquer l’IA avec d’autres applications.
Le problème technique sous-jacent - que cette chose est joliment dite - reste la tendance des modèles IA à générer des informations erronées avec assurance, rendant leur utilisation risquée pour des tâches autonomes. Microsoft continue néanmoins d’investir massivement dans l’infrastructure IA, avec 34,9 milliards de dollars de dépenses d’investissement au premier trimestre, un record.
Pourquoi est-ce important ? Comme dirait l’autre, les promesses n’engagent que ceux qui les croient… mais aussi les commerciaux qui doivent les vendre. Les prospectivistes de salon et les colporteurs de rêves font du mal à tout le secteur depuis trois ans maintenant, et ils semblent vouloir continuer. Diantre.
Pour aller plus loin : The Information, Ars Technica
🚨 OpenAI en « code red » - ça va trancher
Sam Altman a annoncé lundi à ses employés le passage en « code red », le niveau d’urgence le plus élevé chez OpenAI, pour concentrer les ressources sur l’amélioration de ChatGPT. Cette mobilisation intervient alors que Google a présenté Gemini 3, un modèle qui surpasse les offres d’OpenAI sur plusieurs tests de référence de l’industrie.
La base d’utilisateurs de Gemini progresse rapidement, passant de 450 à 650 millions d’utilisateurs actifs mensuels entre juillet et octobre - on oublie aussi souvent d’ajouter tous les utilisateurs d’AI Mode, l’interface conversationnelle du Search aussi propulsée par Gemini 3, qui n’est pas disponible en France, mais partout ailleurs dans le monde avec 2 milliards d’utilisateurs par mois. Face à cette pression, OpenAI reporte plusieurs projets : la publicité - ah…, les agents IA dédiés à la santé et au shopping - re-ah…, ainsi que Pulse, un assistant personnel générant des rapports quotidiens personnalisés -re-re-ah... Les priorités se recentrent sur la personnalisation de ChatGPT, sa vitesse, sa fiabilité et la réduction des refus injustifiés de répondre à certaines questions - méchant Chat.
En parallèle, OpenAI développe un nouveau modèle baptisé Garlic - c’est quoi se nom WTF, qui affiche de bonnes performances face à Gemini 3 et Claude Opus 4.5 dans les tâches de codage et de raisonnement. Une version pourrait être commercialisée sous le nom GPT-5.2 ou GPT-5.5 début 2025. L’entreprise prépare également le lancement d’un nouveau modèle de raisonnement la semaine prochaine.
ChatGPT compte actuellement plus de 800 millions d’utilisateurs hebdomadaires. Selon les projections internes, OpenAI devra atteindre environ 200 milliards de dollars de revenus d’ici 2030 pour devenir rentable.
Pourquoi est-ce important ? Sam Altman annonce vouloir stopper la plupart des projets en cours autour de GPT, dont celui de l’arrivée de la pub dans les réponses générées et celui l’amélioration du mode shopping, afin de se concentrer uniquement sur l’amélioration du modèle lui-même. Google de son côté annonce intégrer de la publicité dans AI Mode aux Etats-Unis. Beau symbole après 3 ans.
Pour aller plus loin : The Information (1), The Information (2), WSJ, The Verge
🚀 9 infos en plus
ByteDance and DeepSeek Are Placing Very Different AI Bets (Wired)
DeepSeek’s self-correcting AI model aces tough maths proofs (Nature)
How AI is transforming work at Anthropic (Anthropic)
What MCP and Claude Skills Teach Us About Open Source for AI (O’Reilly)
🧠 Learning the Wrong Lessons: Syntactic-Domain Spurious Correlations in Language Models (ArXiv)
Google Daily Hub: Anatomy of an overambitious system shaping the future of search (SEL)
Silicon Valley Builds Amazon and Gmail Copycats to Train A.I. Agents (NYT)
Huge Trove of Nude Images Leaked by AI Image Generator Startup’s Exposed Database (Wired)
🛠️ Des outils, des tutos et des modèles à tester
Liquid Foundation Models - Introducing LFM2: The Fastest On-Device Foundation Models on the Market
Liquid Foundation Models - LFM2 Technical Report - infos
Deepagent Quickstarts : learn how to build a deep agent
Building Deep Research: How we Achieved State of the Art
AnythingLLM : faites tourner un LLM en local - comme pour LM Studio ou Ollama, n’attendez des miracles de votre vieux laptop tout pourri
Context Engineering - Short-Term Memory Management with Sessions from OpenAI Agents SDK
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
Are We Testing AI’s Intelligence the Wrong Way?
”Mazout. Ne pas se jeter dedans”
On a un problème avec l’IA - un seul ? Les systèmes actuels cartonnent sur tous les tests qu’on leur soumet : des examens du barreau aux épreuves de mathématiques, en passant par des benchmarks en tout genre. Mais dès qu’on les confronte au monde réel, ils se plantent sur des obstacles qu’un enfant de cinq ans franchirait sans y penser. Il y a là quelque chose qui cloche.
Le souci, c’est qu’on mesure ces machines avec des outils pensés pour nous. On part du principe qu’elles raisonnent un peu comme nous, alors qu’elles empruntent peut-être des chemins complètement différents. Elles pourraient très bien réussir un examen en repérant des patterns statistiques plutôt qu’en comprenant quoi que ce soit. Ça rappelle cette vieille histoire de Hans Le Malin, un cheval qui semblait savoir compter mais ne faisait que guetter les micro-expressions de son public pour savoir quand arrêter de taper du sabot.
C’est là que les psychologues du développement et les éthologues auraient des choses à nous apprendre. Eux, ils passent leur vie à sonder des esprits qui ne parlent pas comme les bébés et les animaux. Ils ont développé tout un arsenal de méthodes pour traquer les biais, multiplier les contre-hypothèses, et surtout pour tirer des leçons des échecs plutôt que de se gargariser des succès.
Le monde de l’IA gagnerait à adopter cette rigueur. Aujourd’hui, on valorise la nouveauté spectaculaire, pas la réplication patiente. Résultat : on empile les performances impressionnantes sans vraiment savoir ce qui se passe sous le capot. Et d’ailleurs, veut-on le savoir ?
📻 Le podcast de la semaine
The Tech Nation : L’IA et la presse écrite ft Sacha Morard
Sacha Morard, ex-CTO du Monde, décrypte l’impact de l’IA sur la presse écrite. Il aborde la transformation du journalisme, les nouveaux usages de consommation d’information et les défis techniques majeurs auxquels les médias doivent répondre pour assurer leur survie économique.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“Attention Benjamin derrière toi ! C’est affreux !”
Bon weekend



