IA 2025 : Révolution Galopante, Risques Géants

La huitième édition du « Artificial Intelligence Index Report 2025 » du Stanford Institute for Human-Centered Artificial Intelligence (HAI) s’impose comme une boussole indispensable. Ce rapport, le plus complet à ce jour, est une note de synthèse d’une rigueur analytique irréprochable, née de l’expertise de plus de 900 leaders mondiaux et 100 experts thématiques. Il traque le progrès, l’adoption et l’impact de l’IA à travers le temps et les géographies, équipant chacun d’entre nous d’informations « précises, rigoureusement validées et de source mondiale » pour des décisions éclairées.

Ma lecture de ce document massif et dense révèle une dichotomie frappante : d’un côté, une performance technique de l’IA qui défie l’imagination, débloquant des potentialités immenses ; de l’autre, une montée en flèche des risques, une gouvernance fragmentée et une fracture numérique persistante. L’IA n’est plus « une histoire de ce qui est possible, c’est une histoire de ce qui se passe maintenant et comment nous façonnons collectivement l’avenir de l’humanité ». Il est donc impératif d’en saisir les nuances, les avancées spectaculaires comme les zones d’ombre, pour ne pas subir mais maîtriser cette révolution.

Voici les 15 points essentiels à retenir de ce rapport :

1. Des Performances Techniques de l’IA Toujours Plus Exigeantes et Améliorées

Les systèmes d’IA continuent de s’améliorer de manière spectaculaire sur des bancs d’essai de plus en plus difficiles. En 2023, de nouveaux benchmarks comme MMMU, GPQA et SWE-bench ont été introduits pour tester les limites des systèmes avancés. Un an plus tard, les performances ont bondi de 18,8, 48,9 et 67,3 points de pourcentage respectivement sur ces tests. Au-delà des chiffres, l’IA excelle désormais dans la génération de vidéos de haute qualité, et certains agents de modèles linguistiques ont même surpassé des humains dans des tâches de programmation avec des contraintes de temps. De nouveaux défis comme « Humanity’s Last Exam » (HLE) ou FrontierMath sont continuellement proposés pour évaluer les systèmes d’IA de pointe, car les benchmarks traditionnels atteignent la saturation. Les modèles les plus récents, comme le modèle o3 d’OpenAI, montrent des signes de raisonnement avancé, notamment en décomposant des problèmes complexes en étapes plus petites.

2. L’Industrie Mène la Course à l’Innovation des Modèles, l’Académie Produit la Recherche Influente

L’hégémonie de l’industrie dans le développement de modèles d’IA notables s’accentue. En 2024, près de 90 % des modèles d’IA remarquables provenaient de l’industrie, contre 60 % en 2023. Cela confirme une tendance observée dans les éditions précédentes du rapport. Cependant, l’académie conserve son rôle primordial dans la production de recherche fondamentale de haut niveau, restant le principal producteur de publications très citées (top 100) au cours des trois dernières années. Aux États-Unis, 16,5% des publications en IA proviennent de l’industrie, contre 8% en Chine, où le secteur académique domine avec 84,5% des publications. Cette répartition suggère que l’innovation de rupture se fait de plus en plus dans le privé, tandis que les universités continuent d’être le terreau de la connaissance théorique.

3. Une Hausse Alarmante des Incidents Liés à l’IA

L’intégration croissante de l’IA dans nos vies s’accompagne d’une augmentation préoccupante des incidents. Selon la base de données AI Incidents Database, le nombre d’incidents signalés liés à l’IA a atteint un niveau record de 233 en 2024, soit une augmentation de 56,4 % par rapport à 2023. Ces incidents incluent des utilisations éthiques contestables, comme l’exploitation de l’identité d’individus décédés par des chatbots IA, des décisions de systèmes de reconnaissance faciale menant à des arrestations injustifiées, ou des dysfonctionnements de véhicules autonomes. Cette hausse reflète non seulement l’expansion de l’IA, mais aussi une plus grande sensibilisation du public à ses impacts.

4. Les Entreprises Reconnaissent les Risques, mais Peinent à Agir

Le rapport met en évidence un décalage entre la prise de conscience et l’action au sein des entreprises. Une enquête de McKinsey révèle que si les organisations identifient clairement les risques liés à l’IA responsable (RAI) – tels que l’inexactitude (64 %), la conformité réglementaire (63 %) et la cybersécurité (60 %) – leurs efforts d’atténuation restent insuffisants. Pour chaque catégorie de risque, moins d’organisations prennent des mesures actives que celles qui les jugent pertinentes. L’écart est particulièrement notable pour la violation de la propriété intellectuelle et la réputation organisationnelle. Cela suggère que les engagements en matière de RAI peinent à se traduire en mesures techniques concrètes.

5. Une Intensification de la Coopération Internationale en Gouvernance de l’IA

Face aux risques croissants, l’année 2024 a été marquée par une intensification de la coopération mondiale en matière de gouvernance de l’IA. Des organisations majeures comme l’OCDE, l’Union européenne, les Nations Unies et l’Union africaine ont publié des cadres et des principes axés sur la transparence, la fiabilité et d’autres principes fondamentaux de l’IA responsable. Des sommets sur la sécurité de l’IA à Séoul ont vu de nombreux pays (Japon, France, Allemagne, Italie, Singapour, Corée du Sud, Australie, Canada, UE) s’engager à lancer des instituts de sécurité de l’IA, renforçant la coordination internationale. Ce mouvement témoigne d’un consensus croissant sur la nécessité d’une approche coordonnée plutôt que d’initiatives nationales isolées.

6. Le « Data Commons » se Rétrécit Rapidement

L’un des défis majeurs pour le développement futur de l’IA est le rétrécissement rapide du « data commons ». Les modèles d’IA dépendent de quantités massives de données web accessibles au public pour leur entraînement. Or, une étude récente a révélé que les restrictions d’utilisation des données ont considérablement augmenté de 2023 à 2024, de nombreux sites web mettant en œuvre de nouveaux protocoles pour freiner le « scraping » de données pour l’entraînement de l’IA. La proportion de « tokens » restreints a bondi de 5-7 % à 20-33 % dans les domaines activement maintenus du jeu de données C4. Cette diminution a des conséquences pour la diversité des données, l’alignement des modèles et leur évolutivité, et pourrait forcer l’émergence de nouvelles approches d’apprentissage avec des contraintes de données.

7. Une Transparence Accrue des Modèles Fondateurs, Mais des Lacunes Persistantes

La transparence de la recherche sur les modèles fondamentaux s’améliore, mais le chemin est encore long. L’indice de transparence des modèles fondamentaux (Foundation Model Transparency Index) a montré que le score de transparence moyen des principaux développeurs de modèles est passé de 37 % en octobre 2023 à 58 % en mai 2024. Ces gains sont prometteurs, mais le rapport souligne qu’il reste beaucoup à faire. Des zones d’opacité importantes persistent, notamment en ce qui concerne l’accès aux données, le statut des droits d’auteur et les détails sur l’entraînement des modèles.

8. L’Émergence de Nouveaux Benchmarks pour la Fiabilité et la Véracité

Face aux limites des anciens benchmarks (comme HaluEval et TruthfulQA) pour évaluer la véracité et la factualité des modèles d’IA, de nouvelles évaluations plus complètes ont vu le jour. Des outils comme le leaderboard du Hughes Hallucination Evaluation Model (HHEM) mis à jour, FACTS et SimpleQA sont apparus pour évaluer la factualité dans des contextes plus difficiles et diversifiés. FACTS, par exemple, évalue la capacité des LLM à générer des réponses factuellement exactes et suffisamment détaillées à partir d’un document contextuel, y compris dans des domaines complexes comme la finance ou la médecine. Ces nouveaux outils sont essentiels pour avoir une meilleure compréhension des capacités et des faiblesses des modèles.

9. La Recherche Académique Accorde une Attention Croissante à l’IA Responsable

Le domaine de l’IA responsable (RAI) gagne en importance au sein de la communauté de recherche académique. Le nombre d’articles sur la RAI acceptés lors de conférences majeures sur l’IA a augmenté de 28,8 %, passant de 992 en 2023 à 1 278 en 2024. Cette tendance à la hausse constante depuis 2019 souligne l’attention croissante portée aux aspects éthiques, de sécurité, de confidentialité et d’équité de l’IA. Les États-Unis dominent le nombre de soumissions académiques sur la RAI, suivis par la Chine et l’Allemagne.

10. L’Investissement Privé Mondial dans l’IA Atteint un Niveau Record

L’investissement corporatif dans l’IA a atteint un niveau sans précédent de 252,3 milliards de dollars en 2024, marquant une croissance de 26 % par rapport à l’année précédente. L’investissement privé a grimpé de 44,5 % et les fusions-acquisitions de 12,1 %. Le secteur a connu une expansion fulgurante au cours de la dernière décennie, avec un investissement total multiplié par plus de treize depuis 2014. Cette expansion reflète une sophistication croissante du paysage de l’IA, les fonds étant de plus en plus dirigés vers des applications spécialisées dans l’automatisation d’entreprise et les solutions spécifiques à l’industrie.

11. L’IA Révolutionne la Science et la Médecine

L’impact de l’IA sur la science et la médecine est reconnu par des distinctions majeures : deux prix Nobel (physique et chimie) ont récompensé des travaux ayant conduit au deep learning et à son application au repliement des protéines, tandis que le Prix Turing a honoré des contributions fondamentales à l’apprentissage par renforcement. En 2024, une vague de modèles de fondation à grande échelle dédiés à la médecine (Med-Gemini, EchoCLIP, VisionFM, ChexAgent) a été publiée. Les bases de données publiques de protéines ont connu une croissance significative (AlphaFold +585% depuis 2021), et les données synthétiques générées par l’IA montrent des promesses pour identifier les déterminants sociaux de la santé et accélérer la découverte de médicaments. Le nombre de publications sur l’éthique de l’IA médicale a quadruplé entre 2020 et 2024. Des innovations comme GluFormer prédisent les trajectoires de santé à long terme à partir de données de surveillance du glucose.

12. Le Raisonnement Complexe Reste un Défi pour l’IA

Malgré les progrès remarquables, les modèles d’IA continuent de buter sur des tâches de raisonnement complexe. S’ils excellent à résoudre des problèmes de l’Olympiade Internationale de Mathématiques, ils peinent encore sur des benchmarks de raisonnement complexe comme PlanBench. Ils ne parviennent souvent pas à résoudre de manière fiable des tâches logiques, même lorsque des solutions prouvablement correctes existent, ce qui limite leur efficacité dans des contextes où la précision est critique. Cela met en évidence une limite fondamentale actuelle de l’IA, en dépit de ses capacités impressionnantes dans d’autres domaines.

13. L’Optimisme Mondial Croît, Mais les Fractures Régionales Demeurent Profondes

L’optimisme global concernant les produits et services d’IA est en hausse, passant de 52 % de personnes les jugeant plus bénéfiques que néfastes en 2022 à 55 % en 2024. Cependant, de profondes divisions régionales persistent. Des majorités écrasantes en Chine (83 %), en Indonésie (80 %) et en Thaïlande (77 %) sont très optimistes, tandis que cet optimisme reste beaucoup plus faible au Canada (40 %), aux États-Unis (39 %) et aux Pays-Bas (36 %). Néanmoins, l’optimisme a significativement augmenté depuis 2022 dans plusieurs pays auparavant sceptiques, comme l’Allemagne (+10 %) et la France (+10 %).

14. L’Expansion des Instituts de Sécurité de l’IA à l’Échelle Mondiale

L’année 2024 a été marquée par la création et l’expansion d’instituts internationaux de sécurité de l’IA dans le monde entier. Suite au premier Sommet sur la sécurité de l’IA en novembre 2023, le Royaume-Uni et les États-Unis ont lancé les premiers instituts. Au Sommet de l’IA de Séoul en mai 2024, des engagements ont été pris pour créer des instituts similaires au Japon, en France, en Allemagne, en Italie, à Singapour, en Corée du Sud, en Australie, au Canada et dans l’Union Européenne. Cette coordination mondiale indique une reconnaissance croissante de la nécessité d’une approche unifiée pour gérer les risques liés à l’IA.

15. L’Éducation à l’IA et l’Accès aux Compétences : Des Progrès Inégaux

L’éducation à l’informatique (CS) pour les élèves du primaire et du secondaire est en pleine expansion : deux tiers des pays dans le monde offrent ou prévoient d’offrir une telle éducation, un chiffre qui a doublé depuis 2019. Les pays africains et latino-américains sont ceux qui ont le plus progressé. Cependant, les élèves des pays africains ont le moins accès à l’éducation en CS, principalement en raison du manque d’électricité dans les écoles. Cette inégalité souligne la fracture numérique persistante. Aux États-Unis, le nombre de diplômés en Master d’IA a presque doublé entre 2022 et 2023, suggérant une tendance à la hausse pour tous les niveaux de diplôme. Le rapport souligne la nécessité d’une éducation en IA inclusive, incluant à la fois les compétences techniques et une « lentille critique interrogeant l’éthique de l’IA ».

L’IA, un Défi de Volonté Collective

Le « Artificial Intelligence Index Report 2025 » est une feuille de route complexe et fascinante des avancées fulgurantes de l’IA, de ses applications révolutionnaires en science et médecine, et de l’augmentation des investissements. Mais c’est aussi un avertissement solennel. Il confronte nos sociétés à la réalité d’une accélération des risques, d’une érosion de la transparence dans certains domaines, de biais persistants dans les modèles et d’une gouvernance qui peine à suivre le rythme. Les questions techniques sont de moins en moins des obstacles insurmontables, tandis que les défis éthiques, de gouvernance, d’équité et de confiance deviennent prépondérants. La fragmentation des efforts d’atténuation des risques dans les entreprises, le rétrécissement du « data commons », et les inégalités d’accès à l’éducation en IA sont autant de fissures dans le socle de cette révolution. Le rapport nous invite non pas à la fatalité, mais à la volonté collective. La construction d’un avenir où l’IA sert véritablement l’humanité, et non quelques-uns, exigera une collaboration sans précédent entre les chercheurs, les industriels, les gouvernements et la société civile. L’heure est à l’action concertée, étayée par des données rigoureuses, pour façonner un avenir de l’IA qui soit à la fois puissant et profondément responsable.

Années 1940-1960 : Première Vague d’IA – Systèmes Basés sur des Règles

Années 1940 : Alan Turing introduit le concept d’intelligence des machines, suggérant que les machines pourraient simuler la déduction mathématique et le raisonnement formel.
1950 : Alan Turing introduit le concept du test de Turing dans son article « Computing Machinery and Intelligence ».
1956 : Le terme « intelligence artificielle » est inventé lors du « Dartmouth Summer Research Project on Artificial Intelligence ».
Années 1950-1960 : Développement rapide des systèmes d’IA basés sur des règles.
Années 1970 : Ralentissement des progrès de l’IA dû au manque de puissance de calcul et de scalabilité, marquant le premier « hiver de l’IA ».
Années 1980 : Brève résurgence avec la popularité des systèmes experts mimant le processus de décision humain, suivie d’un nouveau déclin de l’intérêt et du financement.

Années 1990-2010 : Deuxième Vague d’IA – Apprentissage Statistique

Années 1990 : Début de la deuxième vague d’IA, basée sur l’apprentissage statistique, alimentée par l’augmentation de la puissance de calcul, des volumes de données sans précédent et des algorithmes plus sophistiqués.
2000-2023 : Plus de 713 000 articles scientifiques examinés par des pairs sur l’IA sont publiés et 338 000 brevets sont déposés.

Avant 2010

Le concept d’agents IA est largement discuté dans la communauté de l’IA.
Les benchmarks d’IA sont développés par la communauté, certains depuis 1997 (TPTP pour la preuve de théorèmes automatiques).
2002
Tesla lance Optimus, un robot humanoïde (redessiné en 2023).
2003
Les États-Unis commencent à produire un nombre notable de modèles d’IA, surpassant d’autres pays majeurs.
2004
La base de données PDBbind, un sous-ensemble du PDB contenant des complexes biomoléculaires de protéines, est créée.
2010
Le nombre de publications sur l’IA dans les domaines de l’informatique et d’autres disciplines scientifiques s’élève à environ 102 000.
Le nombre de brevets d’IA commence à augmenter, passant de 3 833 à 122 511 d’ici 2023.
La participation aux conférences sur l’IA commence à être suivie.

Avant 2020

2012
AlexNet, un des premiers modèles à utiliser des GPU pour améliorer les performances de l’IA, est entraîné en cinq à six jours, avec des émissions de carbone modestes (0,01 tonnes).
Le plus petit modèle dépassant 60 % sur MMLU est PaLM, avec 540 milliards de paramètres (par rapport à 2024).
2013
Le nombre total de publications sur l’IA dans les domaines de l’informatique et d’autres disciplines scientifiques est d’environ 102 000, représentant 21,6 % des publications en informatique.
La Chine dépasse le Japon en installations de robots industriels, représentant 20,8 % des installations mondiales.
Les États-Unis commencent à être le principal pays en contrats liés à l’IA, avec environ 5,2 milliards de dollars distribués d’ici 2023.
Le financement des subventions liées à l’IA aux États-Unis s’élève à 230 millions de dollars.
2014
L’investissement total dans l’IA a augmenté de plus de treize fois depuis 2014 pour atteindre 252,3 milliards de dollars en 2024.
Le nombre de participants annuels aux conférences sur l’IA commence à augmenter de plus de 60 000 d’ici 2024.
La Chine lance la première phase de son « Big Fund » pour soutenir l’industrie des semi-conducteurs.
2015
Le premier dispositif médical activé par l’IA est autorisé par la FDA.
Six dispositifs médicaux d’IA sont approuvés par la FDA.
OpenAI est fondée.
2016
L’initiative « Computer Science for All » du président Barack Obama est lancée, allouant des milliards pour l’éducation en CS.
Seulement une loi étatique liée à l’IA est adoptée aux États-Unis.
Seulement 35 % des lycées américains offrent des cours de CS (par rapport à 2023-24).
L’IA représente 0.02 % de toutes les offres d’emploi aux États-Unis.
2017
Le nombre de mentions de l’IA dans les procédures législatives augmente de plus de neuf fois d’ici 2024.
Le Transformer model, largement crédité d’avoir déclenché la révolution des grands modèles linguistiques, est entraîné sur environ 2 milliards de jetons.
Le dataset Oxford-BBC Lip Reading Sentences 2 (LRS2) est introduit.
Les robots collaboratifs représentent 2,8 % des nouvelles installations de robots industriels.
Le pourcentage d’organisations utilisant l’IA dans au moins une fonction d’affaires est de 20 %.
2018
Les performances du matériel d’apprentissage automatique, mesurées en opérations à virgule flottante 16 bits, augmentent de 43 % par an.
2019
Le benchmark Visual Commonsense Reasoning (VCR) est introduit par des chercheurs de l’Université de Washington et de l’Allen Institute for AI.
Le benchmark ARC-AGI est introduit par François Chollet. Le système le plus performant obtient un score de 20 %.
Seulement 33 % des organisations utilisent l’IA générative dans au moins une fonction d’affaires (par rapport à 2024).
La proportion de pays offrant une éducation CS s’élève à 29.54 % pour l’Afrique et 49.05 % pour l’Amérique Latine.
Le nombre de publications sur les grands modèles linguistiques dans PubMed s’élève à 1 566 d’ici 2024.

2020 – 2023

2020
GPT-3 (175B) est lancé, avec des émissions de carbone de 588 tonnes lors de l’entraînement.
Le benchmark MedQA est introduit.
La pandémie contraint les conférences à se tenir entièrement en ligne, ce qui augmente considérablement la participation.
2021
Le benchmark HumanEval est introduit par des chercheurs d’OpenAI.
Le dataset MATH est introduit par des chercheurs de l’UC Berkeley et de l’Université de Chicago.
Le dataset GSM8K est introduit par OpenAI.
L’AlphaFold Database est créée.
2022
Les robotaxis de Waymo commencent à être déployés à Phoenix.
Le modèle PaLM, avec 540 milliards de paramètres, est le plus petit à dépasser 60 % sur MMLU.
Le benchmark PlanBench est proposé par un groupe de l’Arizona State University.
Le modèle RoentGen est lancé.
L’UE propose la loi sur l’IA.
La loi sur la campagne électorale de Lettonie est amendée pour inclure la réglementation sur l’IA.
Le nombre de diplômés en master d’IA aux États-Unis passe de 15 811 à 34 850 d’ici 2023.
Le nombre de lois étatiques liées à l’IA est de 49.
2023
Les chercheurs introduisent de nouveaux benchmarks exigeants : MMMU, GPQA et SWE-bench.
GPT-4 (175B) est lancé, avec des émissions de carbone de 5 184 tonnes lors de l’entraînement.
Les modèles américains surpassent de manière significative leurs homologues chinois sur des benchmarks clés.
La transparence moyenne parmi les principaux développeurs de modèles fondamentaux est de 37 %.
Le nombre d’incidents liés à l’IA signalés atteint 233, une augmentation de 56,4 % par rapport à 2023.
Le financement privé de l’IA atteint 252,3 milliards de dollars.
La part de l’industrie dans le développement de modèles notables est de 60 %.
La Chine produit plus de publications sur l’IA (23,2 %) et de citations (22,6 %) que tout autre pays.
Le nombre total de publications sur l’IA triple entre 2013 et 2023, passant à plus de 242 000.
La part de l’IA dans les publications en informatique passe de 21,6 % à 41,8 %.
Le nombre de brevets d’IA s’élève à 122 511, une augmentation de 29,6 % en un an.
Le nombre d’articles sur l’IA responsable acceptés lors de conférences majeures sur l’IA est de 992.
Les prix Turing, Nobel de physique et Nobel de chimie sont décernés pour des travaux fondamentaux liés à l’IA.
L’Académie domine les publications sur l’IA les plus citées.
La base de données SWE-bench est introduite par des chercheurs de Princeton et de l’Université de Chicago. Les systèmes d’IA ne résolvent que 4,4 % des problèmes de codage.
Le modèle Video-CCAM-7B-v1.2 est le meilleur sur MVBench, avec 69.23 % (par rapport à 2023).
GPT-4 atteint un score de 38,8 % sur l’ensemble « diamond » du GPQA.
La technologie d’IA scribe ambiante est lancée chez Kaiser Permanente Northern California.
Le nombre d’approbations annuelles de dispositifs médicaux d’IA culmine à 223.
Le nombre d’essais cliniques mentionnant l’IA est de 396.
Le nombre de publications sur l’éthique de l’IA médicale est de 674.
Les systèmes d’IA surpassent l’expertise humaine dans certaines tâches de programmation avec des budgets de temps limités.
Les États-Unis lancent le premier institut de sécurité de l’IA, suivi par le Royaume-Uni en novembre.
La transparence du modèle fondamental est de 37 % en octobre.
Le coût d’inférence pour un système de niveau GPT-3.5 a chuté de plus de 280 fois.
Le modèle Stable Video Diffusion est lancé par Stability AI.
Le modèle XSTest est créé pour évaluer les comportements de sécurité exagérés des LLM.

2024

Les scores d’IA augmentent de 18,8, 48,9 et 67,3 points de pourcentage sur MMMU, GPQA et SWE-bench, respectivement.
Les systèmes d’IA réalisent des progrès majeurs dans la génération de vidéos de haute qualité.
La coopération mondiale sur la gouvernance de l’IA s’intensifie.
Le coût d’inférence pour un système de niveau GPT-3.5 a chuté de plus de 280 fois entre novembre 2022 et octobre 2024.
Le décalage de performance entre les modèles ouverts et fermés passe de 8 % à 1,7 % sur certains benchmarks en un an.
Deux prix Nobel (physique et chimie) et le prix Turing récompensent des travaux liés à l’IA.
Les performances de l’IA sur les problèmes de l’Olympiade Mathématique Internationale s’améliorent, mais la résolution de tâches logiques complexes reste un défi.
L’industrie représente près de 90 % des modèles notables développés.
La Chine mène les totaux de publications de recherche sur l’IA, tandis que les États-Unis mènent la recherche très influente.
Les émissions de carbone de l’entraînement de l’IA continuent d’augmenter. GPT-4 (2023) à 5 184 tonnes, Llama 3.1 405B (2024) à 8 930 tonnes. DeepSeek V3 (2024) a des émissions comparables à GPT-3.
Le nombre d’incidents liés à l’IA signalés est de 233, un record et une augmentation de 56,4 % par rapport à 2023.
L’investissement privé mondial dans l’IA atteint un niveau record de 252,3 milliards de dollars, en croissance de 26 %.
De nouvelles études suggèrent que les données synthétiques générées par l’IA peuvent aider les modèles à mieux identifier les déterminants sociaux de la santé, à améliorer la prédiction du risque clinique respectueuse de la vie privée et à faciliter la découverte de nouveaux composés médicamenteux.
Le nombre de publications sur l’éthique de l’IA médicale quadruplé de 2020 à 2024, passant de 288 à 1 031.
Une vague de modèles fondamentaux médicaux à grande échelle est lancée, y compris Med-Gemini, EchoCLIP, VisionFM, et ChexAgent.
Les États-Unis mènent la législation sur l’IA au niveau des États, avec le nombre de lois multiplié par deux pour atteindre 131.
Les instituts de sécurité de l’IA se développent et se coordonnent à l’échelle mondiale. Des instituts supplémentaires sont promis lors du Sommet de l’IA de Séoul.
Deux tiers des pays du monde entier offrent ou prévoient d’offrir une éducation en CS K-12. Cette proportion a doublé depuis 2019.
La proportion de personnes qui pensent que les produits et services d’IA offrent plus d’avantages que d’inconvénients est passée de 52 % en 2022 à 55 % en 2024.
La Chine représente 69,7 % du total des brevets d’IA.
La transparence moyenne parmi les principaux développeurs de modèles fondamentaux est passée de 37 % en octobre 2023 à 58 % en mai 2024.
Janvier : Synopsys acquiert Ansys pour 35 milliards de dollars.
Février : OpenAI dépasse les 2 milliards de dollars de revenus annualisés. Figure AI lève 675 millions de dollars. Stable Video Diffusion est lancé.
20 février : SDXL-Lightning de ByteDance est parmi les systèmes texte-image les plus rapides.
Mars : Anthropic reçoit un investissement supplémentaire de 4 milliards de dollars d’Amazon, portant le total à 8 milliards. La Ligue arabe lance un dialogue sur l’IA éthique.
4 mars : Claude 3 (Anthropic) est lancé.
21 mars : Microsoft embauche la plupart du personnel d’Inflection AI. L’Assemblée générale de l’ONU adopte une résolution sur l’IA.
27 mars : DBRX (Databricks) est lancé. Salesforce lance Moirai.
2 avril : Stable Audio 2 (Stability AI) est lancé.
17 avril : Llama 3 (Meta) est lancé.
23 avril : ORBIT (Oak Ridge National Lab) est présenté, le plus grand modèle d’IA jamais construit pour la science du climat.
Mai : Sommet de l’IA de Séoul. La Commission européenne établit le Bureau de l’IA.
1 mai : CoreWeave obtient 1,1 milliard de dollars de financement.
13 mai : GPT-4o (OpenAI) est lancé.
20 mai : Aurora (Earth science) est présenté.
21 mai : Scale AI lève 1 milliard de dollars.
25 mai : Une femme est identifiée à tort comme une voleuse par le système Facewatch au Royaume-Uni.
27 mai : La Chine crée un fonds d’investissement de 47,5 milliards de dollars pour les semi-conducteurs.
28 mai : NIST des États-Unis dévoile un cadre pour atténuer les risques de GenAI.
Juin : Mistral AI lève 640 millions de dollars.
7 juin : Qwen2 (Alibaba) est lancé.
14 juin : Tempus AI entre en bourse.
18 juin : Une adolescente devient victime de harcèlement par deepfake au Texas.
26 juin : Le Royaume-Uni retire 1,3 milliard de livres sterling pour l’infrastructure technologique et d’IA.
Juillet : Cohere lève 500 millions de dollars.
23 juillet : Llama 3.1 405B (Meta) est lancé.
25 juillet : Le Département d’État des États-Unis publie le profil de gestion des risques d’IA pour les droits de l’homme.
Août : Google acquiert Character.AI. Groq lève 640 millions de dollars.
2 août : Le Royaume-Uni et la Corée du Sud co-organisent le sommet de l’IA à Séoul.
5 août : AMD acquiert Silo AI.
18 août : PhysBERT (Physics) est présenté.
29 août : SynthID v2 (Google) est lancé.
Septembre : Safe Superintelligence (SSI) obtient 1 milliard de dollars. Salesforce lance Agentforce.
5 septembre : FireSat (Google) est présenté.
11 septembre : NotebookLM Podcast Tool (Google Labs) est lancé.
13 septembre : La Maison Blanche des États-Unis lance un groupe de travail sur l’infrastructure des centres de données d’IA.
17 septembre : Le gouverneur de Californie signe trois projets de loi sur l’IA et les communications électorales.
22 septembre : L’ONU adopte le Pacte numérique mondial.
Octobre : OpenAI lève 6,6 milliards de dollars. Google annonce un accord avec Kairos Power. Amazon annonce un plan d’énergie nucléaire.
2 octobre : Le gouverneur de Californie oppose son veto à une législation expansive sur l’IA.
17 octobre : NotebookLM (Google) perd son label « expérimental ».
22 octobre : Anthropic Computer Use est lancé.
23 octobre : Un chatbot est blâmé pour le suicide d’un adolescent.
27 octobre : L’Uruguay diffuse un « débat impossible » avec un hologramme IA.
28 octobre : Apple Intelligence est lancé.
Novembre : Llama-3.1-Instruct-8B, Gemini-1.5-Flash-8B, GPT-4o-2024-05, Claude-3.5-Sonnet-2024-06, Phi 4, GPT-4-0314, DeepSeek-V3 sont des modèles avec des performances de niveau GPT-3.5.
22 novembre : Le roi Salmane d’Arabie Saoudite annonce le « Projet Transcendance », une initiative d’IA de 100 milliards de dollars.
Décembre : Databricks lève 10 milliards de dollars. Perplexity AI lève 500 millions de dollars. xAI annonce un financement de 6 milliards de dollars. Nvidia acquiert Run:ai.
4 décembre : GenCast (Weather prediction) est présenté.
12 décembre : Sora (OpenAI) est lancé.
13 décembre : Global MMLU Dataset (Cohere) est lancé.
20 décembre : o3 (bêta) (OpenAI) est lancé pour les tests de sécurité.
30 décembre : Un juge fédéral en Californie bloque une nouvelle loi sur l’IA concernant les deepfakes de Kamala Harris.
La transparence du modèle fondamental est de 58 % en mai.
L’accès aux cours de CS au lycée aux États-Unis augmente pour atteindre 60 %.
L’Australie, la Belgique, le Canada, le Japon, la Nouvelle-Zélande, la Corée du Sud, l’Ukraine, le Royaume-Uni, les États-Unis et l’Uruguay ont publié des directives sur l’IA dans l’éducation.
La Turquie présente la meilleure parité homme-femme dans les diplômés en TIC.
Le nombre d’articles sur l’IA responsable acceptés lors de conférences majeures sur l’IA est de 1 278.
Le nombre d’incidents liés à l’IA signalés est de 233, une augmentation de 56,4 % par rapport à 2023.
Le pourcentage d’organisations ayant une politique d’utilisation acceptable liée à l’IA est de 39 %, une augmentation de 16 points de pourcentage par rapport à 2024.
La technologie d’IA scribe ambiante est adoptée par des milliers de cliniciens chez Kaiser Permanente.
Le modèle Video-CCAM-7B-v1.2 est le meilleur sur MVBench, avec 69.23 % (par rapport à 2023).
Les modèles ouverts sont à 1.7 % des modèles fermés sur le Chatbot Arena Leaderboard.
Le modèle Whisper-Flamingo établit un nouveau record sur le benchmark LRS2, avec un taux d’erreur de mots de 1.3 %.
Le modèle Claude 3.5 Sonnet (HPT) atteint un score de 100 % sur HumanEval.
Le modèle o3 d’OpenAI résout 71,7 % des problèmes sur le benchmark SWE-bench.
Le modèle o1 d’OpenAI obtient 74,4 % à un examen de qualification de l’Olympiade Mathématique Internationale.
Les systèmes d’IA ont un taux de réussite de 35,5 % sur BigCodeBench.
Le modèle o3-mini (haut) d’OpenAI résout 97,9 % des problèmes du dataset MATH.
Le modèle Gemini 1.5 Pro résout 2,0 % des problèmes de FrontierMath.
Le modèle o3 d’OpenAI obtient un score de 25,2 % sur FrontierMath.
Le modèle o1 d’OpenAI obtient un score de 78,2 % sur le benchmark MMMU.
Le modèle o3 d’OpenAI obtient un score de 87,7 % sur le benchmark GPQA.
Le modèle o3 d’OpenAI atteint un score de 75,7 % sur le benchmark ARC-AGI (et 87.5 % avec un budget de calcul élevé).
Le modèle o1 d’OpenAI obtient 8,8 % sur Humanity’s Last Exam (HLE).
Le modèle o1 d’OpenAI atteint un score de 97,8 % sur PlanBench (Blocksworld zero-shot).
Le modèle GPT-4o atteint un taux de réussite global de 36,2 % sur VisualAgentBench.
Le système le plus performant sur GAIA atteint un score de 65,1 %.
Figure AI lance Figure 02, un robot humanoïde.
Google Connectomics reconstruit une section du cerveau humain au niveau synaptique.
AlphaProteo (Google DeepMind) crée des liants protéiques à haute affinité.
Des LLM agents entraînés (Aviary) réalisent des tâches biologiques complexes.
GluFormer (Nvidia Tel Aviv, Weizmann Institute) prédit les résultats de santé à long terme à partir de données de surveillance continue du glucose.
ESM3 (EvolutionaryScale) génère des protéines novatrices en simulant des processus évolutifs.
AlphaFold 3 (Google et Isomorphic Lab) prédit la structure et les interactions de toutes les molécules du vivant.
L’Arabie Saoudite annonce « Project Transcendence », une initiative d’IA de 100 milliards de dollars.



2025

Février : Le décalage de performance entre les modèles ouverts et fermés sur le Chatbot Arena Leaderboard est réduit à 1,7 %.
Les projections d’Epoch AI estiment que le stock actuel de données de formation sera entièrement utilisé entre 2026 et 2032.
La version 3.4.1 de la Computer Science Ontology (CSO) est publiée, ajoutant plus de 150 nouveaux sujets liés à l’intelligence artificielle.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *