Saturday, January 17, 2026

Après les moteur de recherche par indexation en 1993, l’apprentissage profond 2012, puis les chatbots ChatGPT Gemini, 2022, la troisième AI intègre le monde réel. Des chercheurs suggèrent que Gemini est en train de détrôner tous ses concurrents

 

Pour souhaiter un "Pace e salute" en ce début d'année 2026,
voici un post sur mon vieux blog.

Geoffrey Hinton reçoit avec Yoshua Bengio et Yann Le Cun le prix Turing 2018 pour leurs travaux sur l'apprentissage profond. Ils sont appelés les « pères fondateurs » de l'intelligence artificielle.

Yann Lecun, Yoshua Bengio, Geoffrey Hinton. Deep learning. Nature, 2015, 521 (7553), pp.436-444.
  • Geoffrey Hinton, né le 6 décembre 1947 à Wimbledon (Royaume-Uni), est un chercheur britanno-canadien. Il est co-auteur d'un article publié en 1986, qui a popularisé l'algorithme de rétropropagation pour l'entraînement des réseaux de neurones-perceptrons multicouches: Learning representations by back-propagating errors https://www.nature.com/articles/323533a0
  • Yoshua Bengio, né le 5 mars 1964 à Paris en France, est un chercheur québécois-canadien d'origine franco-marocaine. Il est le seul scientifique vivant à avoir dépassé le million de citations sur Google Scholar. Il rejoint ainsi Michel Foucault, philosophe, historien des idées et militant politique français, cité plus d’un million de fois par ses pairs.
  • Yann Le Cun, né le 8 juillet 1960 à Soisy-sous-Montmorency en France. -Il estime que les LLM (de l'anglais Large Language Model) actuels sont limités car ne « comprenant » pas réellement le monde ; il juge les architectures JEPA plus prometteuses, car capables de construire des représentations internes du monde et de prédire ses évolutions.
On constate combien l'esprit révolutionnaire français est présent dans les fondements et développements de l'AI. 

Un petit clin d'oeil historique

Marseille est l’un des berceaux de l’intelligence artificielle en France avec la création du langage Prolog au début des années 1970. L’objet de cet article est de donner quelques repères historiques et de rendre hommage à Alain Colmerauer ainsi qu’aux membres de son équipe, aux chercheurs et enseignants-chercheurs qui ont contribué au développement de la recherche, de la formation et du transfert technologique en intelligence artificielle à partir de Marseille.

Geoffrey Hinton: Trois ans après avoir été pris au dépourvu par ChatGPT, Gemini est-il en train de gagner ?

Alors que la compétition autour de l’intelligence artificielle générative est souvent racontée comme une succession de coups médiatiques, de démonstrations spectaculaires et d’annonces parfois précipitées, Google avance à un rythme plus feutré. Avec Gemini, son modèle d’IA unifié, le groupe semble aujourd’hui récolter les fruits d’une stratégie plus structurelle que narrative. Sans déclarer officiellement la victoire, Google apparaît de plus en plus comme un acteur central, voire dominant, dans la phase actuelle de la course à l’IA. C'est en tout cas l'avis de certains spécialistes comme Geoffrey Hinton, le « parrain de l'IA ».

Depuis la fin de l’année 2022, la course à l’IA générative a été largement perçue comme un duel entre nouveaux entrants spectaculaires et géants historiques pris de court. L’irruption de OpenAI a imposé un nouveau tempo, rapidement suivi par l’intégration agressive de modèles génératifs dans les produits de Microsoft. Dans ce contexte, Google a souvent été décrit comme hésitant, voire en retard, malgré des années de recherche fondamentale en apprentissage automatique et en réseaux neuronaux.

Pendant une grande partie de l’année 2023, Google a souffert d’une image de poursuivant. L’arrivée rapide de modèles conversationnels très populaires a donné l’impression que le géant de Mountain View avait perdu l’initiative, malgré son rôle historique dans la recherche en apprentissage profond. Cette lecture, largement façonnée par le calendrier médiatique, a progressivement perdu de sa pertinence à mesure que la stratégie de Google s’est clarifiée.

Google a connu quelques lancements de produits difficiles par le passé. En 2024, Google a dû arrêter son générateur d'images IA parce que les gens disaient qu'il créait des images historiquement incorrectes de personnes de couleur et qualifiaient les résultats de « trop politiquement corrects ». Google a rapidement présenté ses excuses pour ce qu’il décrit comme des « inexactitudes dans certaines représentations historiques générées par l’image » avec son outil Gemini, en disant que ses tentatives de créer une « large gamme » de résultats ont manqué la cible. Gemini est un outil d’intelligence artificielle lancé par Google qui peut créer des images en réponse à des requêtes écrites. 

« Nous sommes conscients que Gemini propose des inexactitudes dans certaines représentations de génération d'images historiques », regrette Google dans sa déclaration publiée sur X/Twitter. « Nous travaillons à l'amélioration immédiate de ce type de représentations. La génération d'images par l'IA de Gemini génère un large éventail de personnes. Et c'est généralement une bonne chose, car des gens du monde entier l'utilisent. Mais dans le cas présent, il n'y a pas d'adéquation ». Après avoir mis l'outil en pause, le temps de retravailler dessus, il a été relancé.

Les versions précédentes de son outil de recherche IA donnaient également des conseils étranges, comme dire aux utilisateurs de mettre de la colle sur leur pizza pour empêcher le fromage de glisser.

Auparavant, le PDG de l'entreprise, Sundar Pichai, avait même déclaré que l'entreprise avait attendu pour lancer son chatbot parce qu'il n'était pas prêt. « Nous n'avions pas encore atteint un niveau où nous pouvions le commercialiser et où les gens auraient accepté que Google lance ce produit. Il présentait encore beaucoup de problèmes à l'époque », a déclaré Pichai.

Le lancement et l’évolution de Gemini ont marqué un changement de rythme. Là où les premières réponses de Google semblaient défensives, la firme a progressivement déployé un modèle plus cohérent, mieux intégré et techniquement plus ambitieux. Ce basculement n’a pas été immédiat, mais il s’est opéré de manière continue, presque imperceptible pour le grand public.

Gemini 3, le LLM qui change la donne ?

En novembre 2025, Google a annoncé Gemini 3, un modèle d'intelligence artificielle amélioré, près de huit mois après le lancement de Gemini 2.5. La société a déclaré que sa dernière suite de modèles d'IA exigera des utilisateurs qu'ils fournissent « moins d'indications » pour obtenir les résultats souhaités. Google a également annoncé une nouvelle plateforme d'agents appelée « Google Antigravity », qui permet aux développeurs de coder « à un niveau supérieur, axé sur les tâches ».

À la suite de cette annonce, Geoffrey Hinton, le « parrain de l'IA », a récemment estimé que Google est en train de rattraper OpenAI dans la course à l'intelligence artificielle (IA) [voir ci-dessous].Hinton, professeur émérite à l'université de Toronto et ancien expert de Google Brain, s'est également dit surpris que Google ait mis autant de temps à dépasser ses concurrents. Dans une interview accordée à Business Insider, lorsqu'il a été question de la position de Google par rapport à OpenAI, Hinton a déclaré : « Je pense qu'il est en fait plus surprenant que Google ait mis autant de temps à dépasser OpenAI. Je pense qu'à l'heure actuelle, ils commencent à le dépasser ».

Cette déclaration fait suite au lancement très apprécié de Gemini 3 de Google, une mise à jour qui, selon de nombreux acteurs du monde technologique, a permis à l'entreprise de dépasser le GPT-5 d'OpenAI. Le modèle d'image Nano Banana Pro AI de Google a également connu un grand succès. Ce changement intervient trois ans après que Google aurait déclaré « code rouge » à la suite de la sortie initiale de ChatGPT, des rapports récents suggérant désormais que c'est OpenAI qui pourrait tirer la sonnette d'alarme.

Geoffrey Hinton affirme que Google dispose d'un avantage en matière de puces IA. Outre le lancement réussi de son tout dernier modèle d'IA, le cours de l'action Google a augmenté après que des rapports ont suggéré que l'entreprise pourrait conclure un accord d'un milliard de dollars pour fournir à Meta, la société mère de Facebook, ses propres puces IA. La création de ses propres puces est un « avantage considérable » pour Google, a fait remarquer Hinton. Il a déclaré : « Google dispose de nombreux chercheurs très compétents et, bien sûr, d'une grande quantité de données et de nombreux centres de données. Je pense que Google va gagner. »

Gemini, un modèle pensé comme une plateforme

Avec Gemini, Google n’a pas cherché à empiler un énième modèle conversationnel, mais à concevoir une architecture unifiée capable de traiter nativement texte, image, audio, vidéo et code. Contrairement à des modèles conçus initialement pour le texte puis étendus par couches successives, Gemini a été pensé dès l’origine comme multimodal [il a été entraine en meme temps sur tous les types de données et non sur langage puis img puis video avec ajout de plug-in].

Ce choix technique a des implications concrètes. Il permet une meilleure cohérence entre les différents types de données, une réduction des pertes d’information entre modules et une plus grande efficacité lors de tâches complexes combinant raisonnement, compréhension visuelle et génération de contenu. Dans les benchmarks académiques comme dans de nombreux tests internes, certaines versions de Gemini ont commencé à dépasser ou à égaler leurs concurrents directs sur des tâches de raisonnement avancé.

Une intégration silencieuse mais massive dans l’écosystème Google

L’un des atouts majeurs de Google réside dans son écosystème existant. Gemini n’est pas seulement un produit autonome : il est progressivement injecté dans la recherche, les outils bureautiques, le développement logiciel, la gestion des données et les services cloud. Cette diffusion progressive, souvent peu spectaculaire, contraste avec des lancements plus bruyants mais confère à Google un avantage structurel.

Là où certains acteurs doivent convaincre les utilisateurs d’adopter de nouveaux outils, Google intègre Gemini dans des usages quotidiens déjà installés. Cette approche limite les frictions, permet une collecte de retours à grande échelle et accélère l’itération des modèles dans des conditions réelles.

Des moyens industriels difficiles à égaler

Sur le plan purement industriel, Google dispose d’un avantage rarement mis en avant dans les débats publics : sa maîtrise de l’infrastructure. Entre ses centres de données, ses accélérateurs maison et son expérience dans l’optimisation à grande échelle, le groupe peut entraîner, déployer et ajuster des modèles de très grande taille sans dépendre entièrement de fournisseurs externes.

Cette autonomie réduit les coûts marginaux, sécurise les chaînes d’approvisionnement en calcul et offre une flexibilité stratégique importante à long terme. Dans une course où l’accès à la puissance de calcul devient un facteur déterminant, cet élément pèse lourdement.

Un facteur important pour Gemini 3 était la manière dont il a été entraîné : à l'aide des TPU de Google, une puce hautement spécialisée que l'entreprise développe depuis des années précisément dans ce but. Google est certes sensible à certains problèmes de fabrication et à la hausse des prix de la RAM, comme tout le monde, mais contrairement à la quasi-totalité de ses concurrents, il ne dépend pas de la chaîne d'approvisionnement de Nvidia. Google est en mesure d'optimiser l'ensemble de son système pour le rendre meilleur, plus rapide et moins cher. Personne d'autre ne dispose d'un tel contrôle complet sur son destin en matière d'IA.

Gemini va équiper la prochaine version de Siri, permettant à Apple de transformer son assistant IA

Que faire lorsque l'on dispose de la technologie nécessaire ? La présenter au public et la mettre en œuvre. Lundi, Google et Apple ont annoncé que Gemini équiperait la prochaine génération de Siri, qui sortira plus tard cette année. C'est une grande victoire pour Apple, qui dépenserait 1 milliard de dollars par an dans l'espoir de transformer Siri en un assistant IA réellement utile, pour une fois.

Pour Google, c'est tout aussi important. Le fait qu'Apple affirme qu'il s'agit de « la meilleure technologie disponible » est évidemment un signal fort pour le marché, mais plus encore, Siri devient immédiatement l'un des moyens les plus populaires d'interagir avec Gemini.

[B]Sortie de « Personnal Intelligence..

----------

Geoffrey Hinton, le « parrain de l'IA », affirme que Google « commence à dépasser » OpenAI.

En novembre 2025, Google a annoncé Gemini 3, un modèle d'intelligence artificielle amélioré, près de huit mois après le lancement de Gemini 2.5. À la suite de cette annonce, Geoffrey Hinton, le « parrain de l'IA », a récemment estimé que Google est en train de rattraper OpenAI dans la course à l'intelligence artificielle (IA). Hinton, professeur émérite à l'université de Toronto et ancien expert de Google Brain, s'est également dit surpris que Google ait mis autant de temps à dépasser ses concurrents. Dans une interview accordée à Business Insider, lorsqu'il a été question de la position de Google par rapport à OpenAI, Hinton a déclaré : « Je pense qu'il est en fait plus surprenant que Google ait mis autant de temps à dépasser OpenAI. Je pense qu'à l'heure actuelle, ils commencent à le dépasser ».

Hinton, qui a contribué au développement des premières recherches en IA lorsqu'il travaillait chez Google Brain, a déclaré que la société de recherche était autrefois leader dans le domaine de l'IA, mais qu'elle avait choisi de se retenir. « Google a longtemps été en tête, n'est-ce pas ? Google a inventé les transformateurs. Google disposait de chatbots performants avant tout le monde », a souligné Hinton.

Cependant, Google s'est montré prudent après l'échec en 2016 du lancement par Microsoft de son chatbot IA « Tay », qui a connu une existence éphémère, la société ayant décidé de le fermer après qu'il ait publié des tweets extrêmement racistes, a expliqué Hinton. « Google, qui jouissait évidemment d'une très bonne réputation, craignait de la voir ternie de cette manière », a ajouté Hinton.

Google a connu quelques lancements de produits difficiles par le passé. L'année dernière, il a dû arrêter son générateur d'images IA parce que les gens disaient qu'il créait des images historiquement incorrectes de personnes de couleur et qualifiaient les résultats de « trop politiquement corrects ». Les versions précédentes de son outil de recherche IA donnaient également des conseils étranges, comme dire aux utilisateurs de mettre de la colle sur leur pizza pour empêcher le fromage de glisser.

Google fait également un don de 10 millions de dollars canadiens pour aider à financer la chaire Hinton en intelligence artificielle à l'université de Toronto, et l'université versera une somme équivalente. Hinton, qui a quitté Google en 2023 en raison de ses inquiétudes concernant les risques liés à l'IA, s'est depuis exprimé publiquement sur les dangers tels que la perte d'emplois et le fait que l'IA pourrait dépasser l'intelligence humaine. En 2024, il a même reçu le prix Nobel de physique.

Dans un communiqué, l'entreprise a déclaré : « Les travaux de Geoff sur les réseaux neuronaux, menés pendant ses années universitaires et sa décennie chez Google, ont jeté les bases de l'IA moderne. Cette chaire rend hommage à son héritage et aidera l'université à recruter des chercheurs visionnaires qui se consacreront au même type de recherche fondamentale motivée par la curiosité que Geoff a défendue. »

Les déclarations de Hinton interviennent alors qu'un rapport a récemment révélé qu'OpenAI aurait besoin de lever au moins 207 milliards de dollars d’ici 2030 pour poursuivre sa trajectoire actuelle, selon des projections de l'équipe américaine de HSBC chargée des logiciels et des services, relayées dans la presse économique. À l’échelle du secteur technologique, ce chiffre frôle l’irréel. Pourtant, il reflète une réalité devenue incontournable : l’intelligence artificielle moderne coûte une fortune monumentale, et chaque nouveau palier technologique transforme cette facture en précipice.

Geoffrey Hinton, parrain de l'IA, affirme que les géants de la technologie ne peuvent tirer profit de leurs investissements astronomiques que si la main-d'œuvre humaine est remplacée

 Les actions Nvidia chutent de 4 % après l'annonce que Meta utilisera les unités de traitement de tenseur (TPU) de Google, une puce spécialisée hautement efficace pour l'IA, dans ses centres de données en 2027

 L'avance d'OpenAI sur les autres entreprises d'IA a largement disparu après la sortie de Claude d'Anthropic, Gemini de Google, Grok de X, ainsi que Llama de Meta, selon un rapport sur l'état de l'IA

Source : Interview de Geoffrey Hinton accordée à Business Insider

Entrevue avec Yoshua Bengio par Les Sceptiques du Québec

On y explore les promesses et les pièges de la révolution en cours. Ce dimanche, le chercheur montréalais Yoshua Bengio parle avec notre chroniqueur de ses regrets, mais aussi de son espoir de rendre un jour les systèmes d’IA plus sûrs.
On va devoir bientôt développer la psychorobotique telle qu'imaginée par Asimov. Et, peut-être, s'inspirer de ses lois de la robotique:
"Alors que les prochaines décennies vont voir les avancées de l’IA et de la robotique, quelles barrières ou mesures juridiques mettre en place pour s’assurer que ces entités ne fassent pas de mal aux humains ? En 1942, l’écrivain américain d’origine russe Isaac Asimov (1920-1992) a présenté ses célèbres Trois lois de la robotique dans une nouvelle intitulée Cercle vicieux (Runaround) – ou Cycle fermé – qui met en scène les interactions d’un robot intelligent avec les humains. Les Trois lois sont les suivantes : (1) un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ; (2) un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ; (3) un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi. Par la suite, Asimov a écrit beaucoup d’histoires montrant les conséquences inattendues que pouvaient avoir ces trois lois simples.
Plus tard, il ajouta une autre loi : « un robot ne peut pas faire de mal à l’humanité, ni, par son inaction, permettre que l’humanité soit blessée. » Ces lois ont influencé non seulement les auteurs de science-fiction, mais aussi les experts en intelligence artificielle. Après avoir découvert les lois d’Asimov, le chercheur en IA Marvin Minsky (1927-2016) indiqua qu’il « ne cessa jamais de s’interroger sur la manière dont pouvaient fonctionner les esprits…" 

Yann Le Cun, le 15 janvier 2026 : « Pourquoi je quitte Meta pour créer ma start-up d’IA »

Avec journalistes "le monde"

L’ex-directeur de la recherche fondamentale en intelligence artificielle de Meta justifie le lancement de sa start-up, spécialisée dans le monde physique, par ses divergences avec le groupe américain, et prédit une « troisième révolution de l’IA ».
A 65 ans, Yann Le Cun, le ponte de l’intelligence artificielle (IA) aux yeux clairs pétillants derrière ses éternelles lunettes Ray-Ban Wayfarer, veut ouvrir un nouveau chapitre de sa vie. Après avoir posé, comme chercheur, les bases de l’IA moderne – ce qui lui a valu de recevoir le prestigieux prix Turing 2018, avec deux confrères, Yoshua Bengio et Geoffrey Hinton –, puis dirigé pendant plus de douze ans la recherche fondamentale en IA chez Meta, le Français lance sa start-up, baptisée « AMI », pour Advanced Machine Intelligence, qu’il rêve en « entreprise mondiale ».

Il réserve les détails de sa levée de fonds (estimée à 500 millions d’euros) et le casting de son équipe à des annonces courant février. On sait seulement que son siège sera à Paris et qu’il a déjà enrôlé l’ex-directeur de Meta France Laurent Solly, ainsi qu’Alex LeBrun, fondateur de la start-up d’IA spécialisée dans la santé Nabla. L’entrepreneur, installé en partie à New York, ambitionne qu’AMI contribue à ouvrir une nouvelle phase de l’IA : « Après l’apprentissage profond il y a douze ans, puis l’avènement des chatbots comme ChatGPT ou Gemini, il y a trois ans, il va y avoir une troisième révolution : celle des IA qui comprennent le monde réel, le monde physique », a-t-il assuré, jeudi 15 janvier, lors d’une rencontre à Paris avec quelques journalistes, promettant des applications dans l’industrie ou la robotique. Le chercheur ne cache pas que son départ de Meta est lié à des désaccords stratégiques.

Autre entrevue le 13 janvier 2026

C’est au restaurant étoilé Pavyllon, à deux pas du Grand Palais parisien, que Yann LeCun s’est confié au Financial Times dans le cadre de sa série « Lunch with the FT ».

Attablé pour un déjeuner de trois heures et demie, le chercheur français de 64 ans a expliqué sans détour pourquoi il a décidé de quitter Meta après onze ans de bons et loyaux services. « Rester est devenu politiquement difficile », confie-t-il. Une litote pour décrire une rupture qui révèle les tensions croissantes au sein du groupe californien sur la direction à prendre en matière d’IA.

LLM : un modèle en fin de course

Au cœur du conflit : une divergence fondamentale sur l’avenir technologique de l’intelligence artificielle. LeCun, prix Turing et figure tutélaire du deep learning, ne croit pas aux grands modèles de langage comme voie vers la super-intelligence. Pour lui, les LLM sont utiles mais limités, contraints par le langage seul. Une conviction qui détonne dans une Silicon Valley obsédée par cette approche.

Lire aussi : IA générative : Wikipedia fait enfin passer les chatbots à la caisse
Le problème ? Meta vient justement de miser massivement sur cette technologie. Après le lancement de ChatGPT fin 2022, l’entreprise a réorganisé ses équipes autour de Llama, son propre modèle de langage.

Le tournant s’opère véritablement en 2025. Mark Zuckerberg, déçu par les performances de Llama 4, décide de frapper fort. Il investit 15 milliards $ dans Scale AI et embauche son patron, Alexandr Wang, 28 ans, pour diriger le nouveau laboratoire de recherche TBD Lab. Une décision qui place ce jeune entrepreneur à la tête de l’unité de recherche en IA de Meta. Ses nouvelles recrues, attirées à coups de primes pouvant atteindre 100 millions $, sont selon LeCun « complètement convaincues par les LLM ».  LeCun se retrouve ainsi managé par quelqu’un qu’il qualifie de « jeune » et « inexpérimenté ». S’il reconnaît que Alexandr Wang apprend vite, il souligne son manque d’expérience en matière de recherche fondamentale. « On ne dit pas à un chercheur ce qu’il doit faire. On ne dit certainement pas à un chercheur comme moi ce qu’il doit faire », lance-t-il.
La communication se dégrade également avec l'unité IA générative. LeCun regrette que ses équipes proposent des innovations ambitieuses quand la direction ne retient que des projets éprouvés et sans risque. Une prudence qui, selon lui, conduit l'entreprise à prendre du retard.

Une organisation bouleversée

Plus profondément, LeCun refuse de renier ses convictions scientifiques. Certains chez Meta aimeraient qu'il cesse de proclamer publiquement que les LLM constituent une impasse pour atteindre la super-intelligence. Mais le chercheur ne transige pas : « Je ne vais pas changer d'avis parce qu'un type pense que j'ai tort. Je n'ai pas tort. Mon intégrité de scientifique ne me le permet pas. »

Cette inflexibilité s'explique aussi par sa vision alternative : les modèles du monde, ou world models, qu'il développe depuis des années. Cette architecture baptisée V-JEPA vise à donner aux machines une compréhension du monde physique en apprenant à partir de vidéos, et non uniquement du langage. Une approche qui intéresse davantage l'industrie lourde et l'aéronautique que les réseaux sociaux.

Cap vers AMI Labs

LeCun prépare désormais son prochain chapitre : Advanced Machine Intelligence Labs, une start-up qui incarnera sa vision de l'intelligence artificielle avancée. Il y occupera le poste de président exécutif, laissant la direction opérationnelle à Alex LeBrun, cofondateur de la startup française Nabla. Une structure qui lui permettra de conserver la liberté de recherche qu'il chérissait chez Meta. Pourquoi ne doit pas prendre le rôle de CEO ?  « Je suis à la fois trop désorganisé et trop vieux ! » confie Yann LeCun.

Lire aussi : On en sait (un peu) plus sur la future startup de Yann LeCun
Le chercheur promet des premières versions de sa technologie dans les douze mois. Pas encore la super-intelligence, mais un chemin vers celle-ci. Emmanuel Macron lui-même aurait manifesté sa satisfaction de voir cette nouvelle entreprise mondiale maintenir des liens étroits avec la France.

Après des décennies passées à façonner l'IA moderne, Yann LeCun entame donc un nouveau cycle. Son ambition ? Augmenter la quantité d'intelligence dans le monde. « L'intelligence, c'est vraiment ce dont nous devrions avoir davantage », affirme-t-il.

 Références

https://intelligence-artificielle.developpez.com/actu/379290/Trois-ans-apres-avoir-ete-pris-au-depourvu-par-ChatGPT-Gemini-est-il-en-train-de-gagner-Des-benchmarsks-et-des-chercheurs-suggerent-que-Gemini-a-ce-qu-il-faut-pour-detroner-OpenAI-et-tous-ses-concurrents/

https://intelligence-artificielle.developpez.com/actu/378248/Geoffrey-Hinton-le-parrain-de-l-IA-affirme-que-Google-commence-a-depasser-OpenAI-Je-pense-que-Google-va-gagner/

https://www.lemonde.fr/economie/article/2026/01/16/yann-le-cun-pourquoi-je-quitte-meta-pour-creer-ma-start-up-d-ia_6662500_3234.html

https://www.silicon.fr/business-1367/yann-lecun-quitte-meta-les-coulisses-dune-rupture-225126