Aller au contenu principal

Recherche

Papiers, benchmarks, SOTA

48 LLM testés en médecine : tous trop sûrs d'eux Recherche

48 LLM testés en médecine : tous trop sûrs d'eux

48 modèles de langage testés en gastroentérologie : tous affichent une surconfiance systématique. Même les meilleurs ne disent jamais « je ne sais pas ».

3 févr. 2026

Ai2 Theorizer : une IA qui lit 13 000 papiers scientifiques Recherche

Ai2 Theorizer : une IA qui lit 13 000 papiers scientifiques

L'Allen Institute publie Theorizer : un framework multi-LLM qui génère des théories scientifiques testables. 90 % de précision prédictive.

2 févr. 2026

2026, l'année des systèmes multi-agents IA Recherche

2026, l'année des systèmes multi-agents IA

Après l'explosion des agents IA en 2025, les entreprises passent aux systèmes multi-agents coordonnés. Un marché à 52 milliards en 2030.

20 janv. 2026

Le MIT classe le coding génératif parmi les 10 ruptures de 2026 Recherche

Le MIT classe le coding génératif parmi les 10 ruptures de 2026

MIT Technology Review place le coding génératif dans sa liste TR10 2026. L'IA écrit déjà 30 % du code chez Microsoft et Google.

12 janv. 2026

Nvidia Vera Rubin : 336 Md de transistors, 5× Blackwell Recherche

Nvidia Vera Rubin : 336 Md de transistors, 5× Blackwell

Nvidia dévoile Vera Rubin au CES 2026 : GPU de 336 milliards de transistors, 288 Go de HBM4, coût par token divisé par 10.

5 janv. 2026

IA et neurosciences : les LLMs imitent les hiérarchies cérébrales Recherche

IA et neurosciences : les LLMs imitent les hiérarchies cérébrales

MIT découvre que les LLMs utilisent un mécanisme similaire au "hub sémantique" du cerveau. Les NSLLMs atteignent 20× l'efficacité énergétique des GPUs.

26 déc. 2025

Test-time compute : quand les modèles apprennent à réfléchir Recherche

Test-time compute : quand les modèles apprennent à réfléchir

Plutôt que des modèles plus gros, les labs investissent le compute à l'inférence. o1, o3, DeepSeek-R1 : les reasoning models redéfinissent l'IA.

20 déc. 2025

Après les Transformers : MoR, Mamba et le post-attention Recherche

Après les Transformers : MoR, Mamba et le post-attention

DeepMind présente Mixture-of-Recursions qui double la vitesse d'inférence. Mais les Transformers dominent toujours le top 10.

10 déc. 2025

Scaling laws : la fin du pré-entraînement, l'ère de l'inférence Recherche

Scaling laws : la fin du pré-entraînement, l'ère de l'inférence

Les rendements décroissants du scaling traditionnel poussent les labs vers l'inference-time scaling. DeepSeek prouve qu'on peut faire mieux avec moins.

20 nov. 2025

Parcourir par catégorie