Recherche
Papiers, benchmarks, SOTA
48 LLM testés en médecine : tous trop sûrs d'eux
48 modèles de langage testés en gastroentérologie : tous affichent une surconfiance systématique. Même les meilleurs ne disent jamais « je ne sais pas ».
3 févr. 2026
Ai2 Theorizer : une IA qui lit 13 000 papiers scientifiques
L'Allen Institute publie Theorizer : un framework multi-LLM qui génère des théories scientifiques testables. 90 % de précision prédictive.
2 févr. 2026
2026, l'année des systèmes multi-agents IA
Après l'explosion des agents IA en 2025, les entreprises passent aux systèmes multi-agents coordonnés. Un marché à 52 milliards en 2030.
20 janv. 2026
Le MIT classe le coding génératif parmi les 10 ruptures de 2026
MIT Technology Review place le coding génératif dans sa liste TR10 2026. L'IA écrit déjà 30 % du code chez Microsoft et Google.
12 janv. 2026
Nvidia Vera Rubin : 336 Md de transistors, 5× Blackwell
Nvidia dévoile Vera Rubin au CES 2026 : GPU de 336 milliards de transistors, 288 Go de HBM4, coût par token divisé par 10.
5 janv. 2026
IA et neurosciences : les LLMs imitent les hiérarchies cérébrales
MIT découvre que les LLMs utilisent un mécanisme similaire au "hub sémantique" du cerveau. Les NSLLMs atteignent 20× l'efficacité énergétique des GPUs.
26 déc. 2025
Test-time compute : quand les modèles apprennent à réfléchir
Plutôt que des modèles plus gros, les labs investissent le compute à l'inférence. o1, o3, DeepSeek-R1 : les reasoning models redéfinissent l'IA.
20 déc. 2025
Après les Transformers : MoR, Mamba et le post-attention
DeepMind présente Mixture-of-Recursions qui double la vitesse d'inférence. Mais les Transformers dominent toujours le top 10.
10 déc. 2025
Scaling laws : la fin du pré-entraînement, l'ère de l'inférence
Les rendements décroissants du scaling traditionnel poussent les labs vers l'inference-time scaling. DeepSeek prouve qu'on peut faire mieux avec moins.
20 nov. 2025