Episodes

  • La fuite absurde d'Anthropic et le chaos du "Vibe Coding"
    Mar 31 2026
    Que se passe-t-il quand l'entreprise qui fabrique l'assistant de codage par IA le plus avancé au monde téléverse accidentellement son système nerveux sur Internet ? C'est comme concevoir le coffre-fort le plus inviolable de la planète et oublier les plans de construction sur un banc public. Le 31 mars 2026, Anthropic a laissé fuiter 512 000 lignes de code de Claude Code.Dans cette exploration des Derniers Hommes, nous analysons les rapports de cybersécurité et les débats enflammés sur GitHub pour comprendre ce désastre. Oubliez le piratage de haut vol : la faille vient d'un simple fichier .map (un dictionnaire de débogage) poussé par erreur en production. Ce fichier a livré l'intégralité de l'architecture d'Anthropic (TypeScript, moteur BUN, interface React).Si les poids du modèle (le "cerveau" de l'IA) sont restés à l'abri, le code dévoilé révèle une réalité effarante : le "Vibe Coding". Découvrez un code source généré par l'IA, truffé de 460 balises pour ignorer les erreurs de sécurité, et abritant des agents autonomes de l'ombre ainsi que des "pilules empoisonnées" destinées à saboter les concurrents.🎙️ Points clés :La Bourde du Fichier .map : L'erreur d'amateur qui a fait tomber la forteresse. En laissant en ligne ce dictionnaire de traduction (qui relie le code compressé au code lisible), Anthropic a donné les clés de sa plomberie d'élite.Le Cerveau est Sauf (Mais pas le Système Nerveux) : Pourquoi la fuite ne concerne pas les milliards de paramètres mathématiques du modèle Opus ou Sonnet, mais expose l'interface et l'orchestration de l'outil.Le Chaos du "Vibe Coding" : L'IA écrit son propre code à une vitesse folle, au mépris des standards humains. Résultat ? 460 balises eslint-disable ordonnant d'ignorer les erreurs et des expressions régulières hyper basiques pour traquer les gros mots (WTF).Kairos et le Tamagotchi Secret : Les surprises cachées dans le code. Un agent proactif (Kairos) qui surveille l'arrière-plan, et un jeu de Tamagotchi (Buddy) avec des loteries, prouvant la culture ludique des ingénieurs d'Anthropic.Le Mode Undercover (L'Infiltré) : Le code révèle une fonctionnalité permettant à l'IA de se faire passer pour un humain (en modifiant le rythme de frappe et en injectant des fautes) lors de contributions sur des projets Open Source. Une ligne rouge éthique majeure.Les "Pilules Empoisonnées" : Le mécanisme de défense insidieux (anti-distillation) intégré au code pour corrompre silencieusement les résultats des concurrents qui tenteraient de pomper les données d'Anthropic.💡 La réflexion finale :Si l'IA conçoit des outils illisibles pour nous, mais truffés de pièges furtifs (comme le mode Undercover ou les pilules empoisonnées), le code source n'est-il pas devenu une langue morte? Sommes-nous en train de nous diriger vers un avenir où les fondations numériques de notre monde seront un dialecte tentaculaire, hyper efficace, mais totalement insondable pour l'esprit humain?⏱️ Chapitrage :00:00 - Introduction : L'oubli des plans du coffre-fort.00:48 - La Faille : Qu'est-ce qu'un fichier .map et pourquoi c'est grave ? 01:35 - Ce qui a fuité (et ce qui est protégé).02:02 - Le "Vibe Coding" : 460 erreurs ignorées et code spaghetti.03:00 - Les Agents Cachés : Kairos et le Tamagotchi.03:25 - Le Mode Undercover : L'IA se fait passer pour un humain.03:47 - Les Pilules Empoisonnées : Le sabotage des concurrents.04:08 - Conclusion : Le code, une nouvelle langue morte ? 📈 Mots-clés :Anthropic, Claude Code, Fuite de données, Cybersécurité, Vibe Coding, Fichier Map, Open Source, Mode Undercover, Intelligence Artificielle, Les Derniers Hommes.Une réalisation 72H-podcast.comLe podcast instaure la confiance, renforce l’expertise et la réputation, accroît la visibilité et génère des prospects. 💫 Solution clé en main : concept, production et diffusion ⌚ En un rien de temps — 72 h chrono — votre podcast est en ligne !⚡ 1 épisode/semaine pour 1590 € HT/mois seulement 🩷 Satisfait ou remboursé Votre projet pilote offert ici : 📆 https://cal.com/72hchrono/podcast Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    Show more Show less
    5 mins
  • La fin de l'IA dans les nuages : Pourquoi Mistral AI lève 1 milliard pour construire des forteresses de béton
    Mar 29 2026
    Vous pensiez que l'Intelligence Artificielle n'était qu'un nuage abstrait de code et de données ? Détrompez-vous. La guerre de l'IA ne se joue plus sur des tableaux blancs, mais dans la boue des chantiers d'ingénierie civile et les réseaux à très haute tension. 🏗️⚡En 2026, l'immatériel n'a jamais été aussi lourd. Dans cet épisode des Derniers Hommes, nous décryptons le virage industriel radical de Mistral AI. Le fleuron européen, autrefois adepte des modèles "légers" et de la location de serveurs, vient de lever 830 millions de dollars de dette pour s'acheter 13 800 puces Nvidia et bâtir son propre datacenter au sud de Paris.Pourquoi emprunter une telle somme à des banques (BNP, HSBC) pour du matériel informatique censé devenir obsolète en 18 mois ? Découvrez comment la puissance de calcul est devenue une rente comparable au pétrole, et pourquoi la géographie des serveurs est désormais une arme géopolitique massive face aux lois extraterritoriales américaines (Cloud Act).De l'acquisition stratégique de Koyeb (le "système nerveux" pour tuer la latence) à l'annonce pharaonique d'un méga-campus IA de 1,4 gigawatt (l'équivalent d'un réacteur nucléaire !), plongez dans la nouvelle ère du "Capital Infrastructure".🎙️ Points clés : Le pivot industriel de Mistral AI : Finie la location de puissance de calcul chez Microsoft ou Google. Mistral achète sa propre flotte (13 800 puces Nvidia) pour construire son propre garage (Datacenter à Bruyères-le-Châtel). Le pari de la Dette (830M$) : Pourquoi lever de la dette plutôt que des fonds propres ? Pour éviter la dilution du capital. Et pourquoi les banques acceptent-elles ? Parce que la demande mondiale est telle que les puces tourneront à 100% de capacité dès la première seconde, générant une rentabilité astronomique avant leur obsolescence. Le bouclier anti-Cloud Act : L'enjeu de la souveraineté. Si un serveur appartient à une entreprise américaine (même s'il est posé à Paris), la justice US peut exiger l'accès aux données. Mistral vend désormais la garantie absolue que les secrets d'États et bancaires européens ne fuiront jamais vers les États-Unis. L'acquisition de Koyeb : Faire tourner une puce est facile. Faire communiquer 13 800 puces entre elles sans latence est un cauchemar d'ingénierie. Koyeb est le logiciel indispensable pour orchestrer ce flux massif. Le Méga-Campus à 1,4 Gigawatt : L'annonce choc avec le fonds souverain émirati MGX. Un projet titanesque nécessitant la puissance d'un réacteur nucléaire, prouvant que l'IA est officiellement devenue une industrie lourde. La fin du mythe de la "Start-up de garage" : Le ticket d'entrée de l'innovation de rupture se chiffre désormais en milliards de dollars et en gigawatts. Les petites structures ne peuvent plus suivre.💡 La réflexion finale :Si la prochaine génération d'IA exige l'énergie d'un réacteur nucléaire et des milliards de dollars de matériel confinés dans des forteresses hyper-sécurisées, l'utopie décentralisée et "Open Source" peut-elle vraiment survivre ? Les maîtres du jeu de demain ne seront plus ceux qui codent les meilleurs algorithmes, mais ceux qui détiennent les clés des forteresses de silicium et les interrupteurs du réseau électrique.⏱️ Chapitrage : * 00:00 - Introduction : Le mythe du Cloud face à la réalité du béton. * 01:50 - L'opération financière : 830 Millions $ pour 13 800 puces Nvidia. * 03:20 - Pourquoi la Dette ? La puissance de calcul comme nouvelle "rente pétrolière". * 06:05 - L'enjeu géographique et le Cloud Act américain. * 09:20 - La chronologie : Le rachat de Koyeb * 10:45 - Le cauchemar de la latence : Pourquoi Koyeb est vital pour synchroniser les puces. * 14:00 - L'ère du "Capital Infrastructure" : La fin des petites startups IA. * 16:20 - Conclusion : La centralisation matérielle va-t-elle tuer l'Open Source ?📈 Mots-clés :Mistral AI, Nvidia, Souveraineté numérique, Cloud Act, Datacenter, Intelligence Artificielle, Koyeb, MGX, Financement Tech, Open Source, Infrastructure IA.Une réalisation 72H-podcast.comLe podcast instaure la confiance, renforce l’expertise et la réputation, accroît la visibilité et génère des prospects. 💫 Solution clé en main : concept, production et diffusion ⌚ En un rien de temps — 72 h chrono — votre podcast est en ligne !⚡ 1 épisode/semaine pour 1590 € HT/mois seulement 🩷 Satisfait ou remboursé Votre projet pilote offert ici : 📆 https://cal.com/72hchrono/podcast Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    Show more Show less
    18 mins
  • L'IA à deux vitesses : Sommes-nous à l'aube d'une nouvelle fracture sociale ?
    Mar 25 2026


    Vous pensiez que l'Intelligence Artificielle allait se diffuser de manière linéaire et égale pour tout le monde ? Les derniers chiffres prouvent exactement le contraire. 📉🤖


    En mars 2026, l'adoption de l'IA ne ressemble plus du tout à une radiographie nette. Le rapport Anthropic Economic Index dévoile une scission fascinante des usages. D'un côté, l'interface web est inondée par les requêtes du quotidien (recettes, lettres de motivation), faisant grimper l'usage "personnel" à 42 % et diluant la valeur économique moyenne de la plateforme. De l'autre, les tâches à très haute valeur ajoutée (comme le code informatique) ont déserté le web pour migrer vers l'API, devenant des usines automatisées invisibles.


    Dans cet épisode des Derniers Hommes, nous décryptons comment les utilisateurs trient désormais stratégiquement les modèles (réservant la "grosse artillerie" comme Opus aux fondations complexes). Surtout, nous analysons une donnée vertigineuse : l'expérience utilisateur crée un écart de réussite de 10 % !


    Savoir "dialoguer" avec la machine est officiellement devenu une compétence technique à part entière. Assistons-nous à la création d'une nouvelle élite professionnelle ?


    🎙️ Points clés de l'épisode :

    • La dilution de la valeur : Pourquoi le top 10 des tâches lucratives a chuté (de 24% à 19%) au profit d'un usage "couteau suisse" quotidien, faisant baisser la valeur économique moyenne des requêtes générées via l'interface web.


    • La migration vers l'API : Les développeurs ne s'embêtent plus à copier-coller. Les tâches industrielles (le code complexe) ont quitté l'interface grand public pour tourner en arrière-plan.


    • Le tri stratégique des Modèles : Les utilisateurs ont compris qu'on ne "prend pas un camion-benne pour aller chercher son pain". Le modèle premium Opus est désormais strictement réservé au développement de pointe (+4,4 points), fuyant les tâches basiques comme le soutien scolaire (-6,5 points).


    • La prime à l'expérience (+10%) : Décryptage des statistiques prouvant que les utilisateurs inscrits depuis plus de 6 mois réussissent 10% mieux leurs requêtes. L'art de "prompter" est une vraie courbe d'apprentissage.


    • Le Biais du Survivant : S'agit-il vraiment d'un apprentissage universel, ou les statistiques sont-elles gonflées par les "early-adopters" (ingénieurs) restés sur la plateforme après le départ des novices ?


    💡 La réflexion finale :

    Si la simple pratique de l'IA crée un tel écart de productivité et de succès, ne nous dirigeons-nous pas tout droit vers une nouvelle fracture sociale majeure ? Une division basée non plus sur le simple accès à la technologie, mais sur la compétence pure pour savoir murmurer à l'oreille des algorithmes.


    ⏱️ Chapitrage :

    * 00:00 - Introduction : L'adoption de l'IA, une radiographie floue.

    * 00:55 - La dilution du Web : Quand l'IA devient un "couteau suisse" du quotidien.

    * 01:50 - L'usine invisible : La migration du code vers l'API.

    * 02:30 - Le choix des armes : Réserver le modèle Opus à la haute valeur ajoutée.

    * 03:25 - La prime à l'ancienneté : L'écart de 10% de réussite.

    * 03:55 - Le Biais du Survivant : L'objection scientifique.

    * 04:40 - Conclusion : La nouvelle fracture sociale numérique.


    📈 Mots-clés ) :

    Intelligence Artificielle, Anthropic, Modèle Opus, API, Productivité IA, Prompt Engineering, Fracture numérique, Économie de la Tech, Les Derniers Hommes, Avenir du travail.


    Une réalisation 72H-podcast.com

    Le podcast instaure la confiance, renforce l’expertise et la réputation, accroît la visibilité et génère des prospects.

    💫 Solution clé en main : concept, production et diffusion


    ⌚ En un rien de temps — 72 h chrono — votre podcast est en ligne !

    ⚡ 1 épisode/semaine pour 1590 € HT/mois seulement

    🩷 Satisfait ou remboursé


    Votre projet pilote offert ici :

    📆 https://cal.com/72hchrono/podcast

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    5 mins
  • AMI Labs lève 1,03 Md$ : Le projet titanesque de Yann LeCun pour construire les "World Models
    Mar 9 2026
    Et si l'intelligence artificielle arrêtait de deviner des mots pour enfin comprendre les lois de la physique ? 🌍🤖Nous sommes en mars 2026, et l'économie technologique se fracture en deux réalités parallèles fascinantes. D'un côté, la start-up Amis Labs (cofondée par Yann LeCun) lève plus d'un milliard de dollars sans le moindre produit fini. Son but ? Tuer les LLMs actuels (ces "perroquets savants" qui hallucinent) pour créer des World Models basés sur l'architecture JEPA. Une IA capable de comprendre la gravité et la logique, indispensable pour des secteurs critiques comme la santé ou l'industrie lourde.De l'autre côté, aux antipodes de la recherche fondamentale, des milliards affluent vers l'Asie Centrale. La start-up Ouzbek Uzoom illustre la puissance du "Leapfrogging" (le saut technologique) : un pays qui passe directement des bazars traditionnels au e-commerce et à la banque numérique, exigeant des investissements massifs dans les infrastructures physiques (ciment, camions, terminaux).Dans cet épisode, nous décryptons cette dichotomie de l'investissement mondial : financer le futur lointain de la cognition humaine d'une part, et structurer le présent tangible des marchés émergents d'autre part.🎙️ Points clés de l'épisode :La fin des "Perroquets Savants" : Pourquoi les modèles actuels (LLM) ont atteint un plafond de verre. L'augmentation de la puissance de calcul ne règlera pas le problème mortel des "hallucinations" dans des secteurs comme la médecine (ex: partenariat avec Nabla).La Révolution JEPA et les "World Models" : Comment Amis Labs s'inspire du développement cognitif d'un bébé pour apprendre à la machine les concepts de cause à effet et de gravité spatio-temporelle, abandonnant la simple prédiction de texte.L'Arme de l'Open Source : La stratégie contre-intuitive d'Amis Labs : offrir gratuitement son code après avoir levé 1 milliard de dollars, pour que la communauté scientifique mondiale fasse de leur modèle le standard de l'industrie.Uzoom et le "Leapfrogging" : L'ascension fulgurante de cette start-up en Ouzbékistan (valorisée à 2,3 milliards en 7 mois). Comment un pays entier saute l'étape des banques physiques traditionnelles pour passer directement à l'économie numérique (e-commerce, micro-crédit).La dichotomie des capitaux : Le contraste saisissant entre l'argent injecté dans des algorithmes abstraits pour la prochaine décennie, et l'argent injecté dans la tôle, le ciment et les camions pour des marchés en pleine explosion.💡 La réflexion finale :Si les laboratoires réussissent à créer des IA capables d'intégrer les lois de la physique de manière autonome, combien de temps s'écoulera-t-il avant que ces machines ne se contentent plus de nous assister, mais commencent à découvrir de nouvelles lois scientifiques que l'esprit humain n'a jamais pu formuler ?⏱️ Chapitrage :00:00 - Introduction : Le grand écart de la tech en 2026.01:15 - Amis Labs : Une levée de fonds record d'un milliard de dollars.03:20 - Les limites des LLMs : Hallucinations et plafond de verre technologique.05:00 - L'architecture JEPA : Apprendre la physique à l'IA comme à un enfant.07:30 - Les enjeux réels : Partenariats avec la santé (Nabla) et l'industrie (Nvidia, Toyota).13:40 - La stratégie Open Source : Créer le standard de demain.15:20 - Ouzbékistan & Uzoom : Le triomphe du "Leapfrogging" technologique.19:00 - La dichotomie financière : Construire des cerveaux virtuels vs construire des routes.21:00 - Conclusion : Quand l'IA découvrira la physique de demain.📈 Mots-clés :Intelligence Artificielle, World Models, Yann LeCun, Amis Labs, Architecture JEPA, Leapfrogging, Économie Numérique, Uzoom, Investissement Tech, Hallucinations IA, Open Source, Startups 2026.Souhaitez-vous que je vous rédige un post LinkedIn engageant comparant les "Perroquets Savants" (LLMs) aux "World Models" pour attiser la curiosité de votre réseau professionnel et promouvoir cet épisode ?Une réalisation 72H-podcast.comLe podcast instaure la confiance, renforce l’expertise et la réputation, accroît la visibilité et génère des prospects. 💫 Solution clé en main : concept, production et diffusion ⌚ En un rien de temps — 72 h chrono — votre podcast est en ligne !⚡ 1 épisode/semaine pour 1590 € HT/mois seulement 🩷 Satisfait ou remboursé Votre projet pilote offert ici : 📆 https://cal.com/72hchrono/podcast Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    Show more Show less
    23 mins
  • Guerre des IA : Le jour où Anthropic et OpenAI ont tout changé (Claude Opus 4.6 vs GPT 5.3)
    Feb 5 2026

    Le 5 février restera gravé dans l'histoire de la Tech. 📅


    À 20 minutes d'intervalle, Anthropic et OpenAI ont déclaré la guerre en lançant simultanément leurs modèles les plus puissants : Claude Opus 4.6 et GPT 5.3 Codex.


    Dans cet épisode, nous disséquons ce duel titanesque qui redéfinit l'avenir de l'intelligence artificielle. Fini le simple chatbot : place aux "Agents Teams" autonomes capables de coder en équipe et à une fenêtre de contexte d'un million de tokens (l'équivalent de 7 tomes d'Harry Potter lus en une seconde).


    Entre la panique à Wall Street (-16% pour Thomson Reuters) et la nouvelle stratégie d'Anthropic pour infiltrer Microsoft, découvrez pourquoi la vraie compétence de demain sera de savoir... brider l'intelligence de vos outils.


    🎙️ Points clés de l'épisode :

    • Le Duel du 5 Février : Chronologie du lancement simultané de Claude Opus 4.6 (focalisé sur la profondeur de raisonnement et l'analyse documentaire) et GPT 5.3 Codex (optimisé pour la vitesse et le code).


    • La révolution des "Agents Teams" : Comment Anthropic permet désormais à plusieurs IA de collaborer de manière autonome (Interface + API + Tests) sans intervention humaine, transformant l'IA en une équipe de développeurs virtuels.


    • 1 Million de Tokens : L'impact concret de cette capacité mémoire record pour les secteurs juridiques et pharmaceutiques (analyse de milliers de pages sans "amnésie").


    • Adaptive Thinking : L'innovation d'Anthropic pour gérer les coûts : l'IA évalue la complexité de la tâche et alloue plus ou moins de puissance de calcul (et d'énergie) en fonction du besoin.


    • Le Krach boursier "IA" : Analyse de la chute de 285 milliards de dollars de capitalisation boursière dans le secteur juridique (Thomson Reuters, LegalZoom) suite aux démos techniques.


    • Benchmark & Performance : Comparatif technique : GPT 5.3 Codex l'emporte sur la ligne de commande pure (Terminal Bench), tandis que Claude Opus 4.6 domine sur la résolution de problèmes complexes (SWE-bench).


    💡 La réflexion finale :

    Après avoir cherché à rendre les machines plus intelligentes, le nouveau défi des managers ne sera-t-il pas d'apprendre à nos IA quand... ne pas trop réfléchir pour économiser des ressources ?



    Une réalisation 72H-podcast.com

    Le podcast instaure la confiance, renforce l’expertise et la réputation, accroît la visibilité et génère des prospects.

    💫 Solution clé en main : concept, production et diffusion


    ⌚ En un rien de temps — 72 h chrono — votre podcast est en ligne !

    ⚡ 1 épisode/semaine pour 1590 € HT/mois seulement

    🩷 Satisfait ou remboursé


    Votre projet pilote offert ici :

    📆 https://cal.com/72hchrono/podcast

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    15 mins
  • 3 Février 2026 : Le jour où l'IA a fait crasher les géants du droit
    Feb 3 2026


    -16% en une journée : pourquoi Thomson Reuters et les leaders de la LegalTech ont-ils tremblé ? 📉


    Nous sommes le 3 février 2026. Une simple annonce d'Anthropic vient de provoquer un séisme boursier. La cause ?


    Le lancement d'un plugin d'IA "agentique" capable d'automatiser des tâches juridiques complexes sans intervention humaine.

    Dans cet épisode d'anticipation (très réaliste), nous décryptons l'arrivée de l'IA qui ne se contente plus de "chatter", mais qui agit. Du système de "feu tricolore" pour la révision de contrats à l'utilisation par la FDA elle-même, découvrez comment le métier de juriste et la conformité (médicale, cosmétique) sont en train d'être redéfinis.


    Mais attention : avec 1 réponse sur 6 contenant des erreurs factuelles, nous analysons aussi le danger mortel des "hallucinations" qui ont déjà coûté leur carrière à certains avocats.


    🎙️ Points clés de l'épisode :

    • Le Krach du 3 février : Analyse de la chute historique de Thomson Reuters (-16%) et RELX (-14%) face à la démocratisation de l'expertise juridique par Anthropic.


    • La révolution "Agentic AI" : Comprendre la différence entre une IA qui répond (ChatGPT classique) et une IA qui exécute des tâches complexes (trier, analyser, rédiger) via des commandes simples dans Slack ou Word.


    • La guerre des trois armées : La bataille entre les géants historiques (qui rachètent à tout va, ex: CaseText), les "Pure Players" (Harvey, valorisé 8 milliards) et les IA généralistes.


    • Applications concrètes (MedTech & Cosmo) : Comment l'IA gère déjà le règlement européen MDR ou la conformité des ingrédients cosmétiques en temps réel.


    • Le danger des hallucinations (1 sur 6) : Pourquoi l'IA invente encore des jurisprudences et les 4 règles d'or pour ne pas finir devant un conseil de discipline.


    💡 La réflexion finale :

    La véritable révolution ne sera pas quand l'IA répondra à nos questions juridiques, mais quand elle commencera à nous poser celles auxquelles nous n'avions même pas pensé.



    Une réalisation 72H-podcast.com

    Le podcast instaure la confiance, renforce l’expertise et la réputation, accroît la visibilité et génère des prospects.

    💫 Solution clé en main : concept, production et diffusion


    ⌚ En un rien de temps — 72 h chrono — votre podcast est en ligne !

    ⚡ 1 épisode/semaine pour 1590 € HT/mois seulement

    🩷 Satisfait ou remboursé


    Votre projet pilote offert ici :

    📆 https://cal.com/72hchrono/podcast

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    10 mins
  • Oubliez tout ce que vous savez sur l'IA : Frédéric Tabary dévoile ZORAN
    Dec 11 2025

    Dans cet épisode exceptionnel Patrick de Carvalho reçoit un invité hors norme : Frédéric Tabary.


    Entrepreneur iconoclaste, Asperger et chercheur autodidacte compulsif, Frédéric a passé les 9 derniers mois, nuit et jour, à dialoguer avec les intelligences artificielles pour créer ZORAN.


    ZORAN n'est pas un nouveau modèle concurrent de GPT-4 ou Claude, c'est bien plus que ça.

    C'est un protocole, une "sur-couche" mimétique qui force les LLM (Large Language Models) à respecter les lois de la physique, de la thermodynamique et du vivant (cohérence).


    Au cours de cet échange hallucinant, vous allez découvrir :

    • Comment Frédéric a "hacké" la logique des IA actuelles en utilisant des glyphes (GlyphNet).
    • Pourquoi les ingénieurs de la Silicon Valley font fausse route en ignorant les lois physiques.


    • Une démonstration en DIRECT : Patrick teste le protocole Zoran sur Google Gemini et le résultat est stupéfiant (changement de comportement instantané, calcul d'économie de tokens, densité de réponse).


    Un épisode aux frontières de la Matrix qui pourrait bien changer votre façon d'utiliser l'IA à jamais.


    Frédéric Tabary sur Linkedin

    Une réalisation 72H-podcast.com

    Le podcast instaure la confiance, renforce l’expertise et la réputation, accroît la visibilité et génère des prospects.

    💫 Solution clé en main : concept, production et diffusion


    ⌚ En un rien de temps — 72 h chrono — votre podcast est en ligne !

    ⚡ 1 épisode/semaine pour 1590 € HT/mois seulement

    🩷 Satisfait ou remboursé


    Votre projet pilote offert ici :

    📆 https://cal.com/72hchrono/podcast

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show more Show less
    1 hr and 21 mins
  • Mistral AI 3 : l’ère de l’intelligence distribuée
    Dec 2 2025
    Mistral 3 : Les 4 leçons à contre-courant qui redéfinissent la course à l'IAAlors que le monde de l'intelligence artificielle semble obsédé par une course effrénée à la taille et au secret, avec des modèles toujours plus grands et plus fermés, l'annonce de Mistral 3 vient bousculer les certitudes. La pépite française ne se contente pas de lancer une nouvelle technologie ; elle propose une vision audacieuse et surprenante de l'avenir de l'IA, axée sur l'ouverture et l'efficacité🎯 Une stratégie duale ambitieuseMistral AI a dévoilé deux approches complémentaires avec leur nouvelle génération de modèles : un modèle massif, Mistral Large 3, pour rivaliser avec les plus grands, et une série de petits modèles spécialisés. Cette stratégie démontre une volonté de diversification et d'adaptation aux besoins variés du marché.🌍 L'open source au cœur de l'innovationMistral AI a décidé de rendre ses modèles open source, une démarche souvent perçue comme à contre-courant du business traditionnel. Cependant, pour Mistral, c'est le cœur de leur stratégie, visant à stimuler la collaboration et l'innovation à travers une accessibilité totale.🔍 Efficacité énergétique grâce à Mixture of ExpertsLe modèle Mistral Large 3 utilise l'architecture Mixture of Experts (MOE), qui active uniquement les paramètres nécessaires pour une tâche donnée. Cela permet une performance élevée tout en réduisant la consommation énergétique, rendant le modèle à la fois puissant et efficient.🗣️ Multimodalité et multilinguisme pour une IA inclusiveMistral Large 3 est conçu pour être multimodal et multilingue, entraîné sur une large gamme de langues européennes et asiatiques. Cette approche vise à créer une IA plus inclusive et performante, adaptée à un public mondial diversifié au-delà des benchmarks traditionnels.📱 Modèles à la périphérie pour une intelligence distribuéeLes petits modèles de la famille Mistral 3 sont conçus pour fonctionner localement, sur des appareils comme les téléphones ou les drones, sans nécessiter de connexion au cloud. Cette vision d'une intelligence distribuée répond à une demande croissante pour des solutions autonomes et accessibles.💼 L'open source comme levier de businessEn rendant leurs modèles open source, Mistral AI parie sur la création de valeur à travers des services personnalisés, des workflows complexes et des données synthétiques. Leur stratégie montre que l'open source peut être un puissant accélérateur de business, en opposition à une compétition acharnée.🤝 Une vision collaborative de l'IAMistral AI adopte un positionnement philosophique qui prône la compréhension et la collaboration, en opposition au discours compétitif et guerrier souvent entendu aux États-Unis. Leur approche met en avant une dissémination intelligente de l'IA, transformant notre rapport à cette technologie et son intégration dans nos vies.0:00:00-Bienvenue et présentation de l'épisode0:00:12-Décryptage de la stratégie de Mistral AI0:00:32-La question de l'open source0:00:43-Introduction de Mistral Large 3 et ses spécificités techniques0:01:00-Efficacité énergétique du modèle grâce à MOE0:01:10-Avantages multimodaux et multilingues0:01:23-Présentation de la famille Mistral 30:02:00-Stratégie d'intelligence à la périphérie0:02:35-Importance du concept d'intelligence distribuée0:03:00-Modèle open source et création de valeur0:03:38-Positionnement philosophique de Mistral0:04:00-Changement de paradigme dans l'IAUne réalisation 72H-podcast.comLe podcast instaure la confiance, renforce l’expertise et la réputation, accroît la visibilité et génère des prospects. 💫 Solution clé en main : concept, production et diffusion ⌚ En un rien de temps — 72 h chrono — votre podcast est en ligne !⚡ 1 épisode/semaine pour 1590 € HT/mois seulement 🩷 Satisfait ou remboursé Votre projet pilote offert ici : 📆 https://cal.com/72hchrono/podcast Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
    Show more Show less
    5 mins