JustPaste.it

Qu'est-ce que l'intelligence artificielle ? Nicolas Tenzer and Constantin Vaillant-Tenzer

cab347296d24309f9c3dbb18ffefe7541.jpg

image: Un centre de données gigantesque pour l'IA | La Presse

 

Cet article est le premier d'une série de six essais consacrés à l'intelligence artificielle. Il présente les définitions fondamentales du sujet abordé et décrit la nouvelle économie de l'IA. Comprendre ce contexte est essentiel pour appréhender les enjeux de souveraineté et de sécurité qui seront traités ci-dessous. 

Cette série d'essais a été écrite en collaboration avec  Constantin Vaillant Tenzer , chercheur en mathématiques appliquées aux neurosciences cognitives et à l'apprentissage automatique à l'École normale supérieure d'Ulm (Université Paris Sciences et Lettres). Depuis plus de quatre ans, il travaille à l'amélioration des méthodes d'entraînement des algorithmes d'intelligence artificielle, en collaboration avec des entreprises françaises et américaines.

Depuis le lancement de ChatGPT auprès du grand public le 30 novembre 2022, les outils d'intelligence artificielle destinés au grand public n'ont cessé de se développer. Ils sont désormais omniprésents dans le débat public, bien au-delà des cercles spécialisés. Avant de spéculer sur l'avenir de ces technologies, leurs fonctions actuelles et potentielles, leurs risques et leurs usages stratégiques, il est nécessaire de les définir et de clarifier leur fonctionnement ainsi que leur place dans l'économie numérique contemporaine.

L'intelligence artificielle peut se définir comme la mise en œuvre d'algorithmes capables d'accomplir des tâches qui, jusqu'à présent, exigeaient des capacités cognitives humaines : perception, classification, traduction, écriture, prise de décision – cherchant parfois à imiter, voire à surpasser, les capacités humaines. Parmi les premiers exemples historiques figurent les automates de foire apparus au XVIIIe siècle  , les robots joueurs d'échecs automatiques, l'IA des jeux vidéo et les chatbots – des agents conversationnels automatisés – qui posent des questions à choix multiples. Cependant, ces premiers algorithmes étaient tous basés sur des arbres de décision ou parfois sur des critères plus complexes, reposant sur une programmation explicite. C'est là la principale différence avec ce que l'on appelle l'apprentissage automatique : la programmation d'algorithmes qui doivent produire un autre algorithme, communément appelé « modèle », après un processus appelé « entraînement ».

La révolution de l'apprentissage automatique et de l'apprentissage profond

En pratique, l'apprentissage automatique consiste à ajuster un grand nombre de paramètres pour optimiser une fonction objectif (par exemple, la probabilité de classer correctement une image ou une phrase). Certaines méthodes permettent à l'algorithme, lors de son utilisation, d'apprendre de ses erreurs, soit par lui-même en observant le résultat de son interaction avec le monde, soit grâce aux retours d'information des utilisateurs. Tous les algorithmes d'apprentissage automatique reposent sur des statistiques, des probabilités et des théorèmes d'algèbre linéaire puissants. C'est précisément le fait que ces algorithmes ne sont pas déterministes – ils ne produiront donc pas exactement le même résultat dans une même situation – qui les rend adaptables à différents contextes, et donc si puissants et utiles. Par conséquent, la capacité à réaliser des choses inattendues est une caractéristique de ces algorithmes. Les écarts peuvent être contrôlés automatiquement. Mais souvent, les erreurs qui apparaissent sur les modèles commercialisés surviennent soit à cause d'un problème dans le processus d'entraînement (surapprentissage, ensemble de données de test trop similaire, etc.), soit parce que les données d'entraînement n'ont pas été adaptées à la tâche pour laquelle le modèle est effectivement utilisé, ce qui amène le modèle à inventer quelque chose d'aléatoire, puisqu'il est programmé pour donner une réponse.

Les algorithmes d'apprentissage profond constituent une sous-catégorie des algorithmes d'apprentissage automatique permettant un apprentissage continu et, souvent, des performances bien supérieures. L'apprentissage profond utilise des réseaux de neurones profonds, basés sur l'  architecture du perceptron  (1957). Cependant, avant l'avènement des réseaux de neurones convolutifs (CNN) à la fin des années 1980, grâce à la rétropropagation, il était techniquement impossible d'étendre ces machines – marquant la fin de ce que l'on appelle l'hiver de l'IA.  Selon Yann Le Cun, l'un de ses créateurs, l'apprentissage profond « consiste à construire des réseaux de modules fonctionnels paramétrés et à les entraîner à partir d'exemples en utilisant l'optimisation par gradient ». Les réseaux de neurones profonds peuvent être vus comme une série d'algorithmes d'apprentissage simples interagissant entre eux pour produire un résultat qui s'améliore  grâce à  un système intelligent de corrections d'erreurs en chaîne. Si l'apprentissage profond permet d'obtenir des modèles beaucoup plus robustes et puissants, cela se fait au détriment de l'interprétabilité : la présence de couches intermédiaires de neurones crée un phénomène de boîte noire, rendant impossible l'explication du résultat de l'algorithme.

Ces algorithmes nécessitent des calculs vectoriels et matriciels coûteux, mal adaptés aux processeurs classiques (unités centrales de traitement, ou CPU), mais très efficaces lorsqu'ils utilisent des unités de traitement graphique (GPU), conçues à l'origine pour le rendu d'images et utilisées par les graphistes et les passionnés de jeux vidéo.

L'utilisation généralisée des GPU pour l'apprentissage profond a constitué un tournant économique et géostratégique : l'exécution de modèles d'IA de pointe dépend désormais presque directement de l'accès à des milliers, puis à des centaines de milliers, de GPU de dernière génération. Cette dépendance matérielle sera au cœur de la discussion sur la souveraineté dans notre deuxième article.  Les enjeux économiques, environnementaux et géostratégiques majeurs  liés aux GPU feront l'objet d'une section entière. Environ 20 millions de GPU ont été vendus au dernier trimestre 2025.

Modèles d'IA

Les modèles d'IA peuvent être classés en trois grandes catégories d'utilisation.

La première catégorie comprend les modèles de classification, tels que la reconnaissance optique de caractères (OCR), la reconnaissance des cellules cancéreuses en imagerie médicale, la reconnaissance faciale, les modèles de traduction automatique (populaires au début des années 2020), la recherche web traditionnelle et les systèmes de recommandation personnalisés, essentiels au fonctionnement des réseaux sociaux (Facebook, Instagram, X, TikTok, etc.) ou des plateformes vidéo comme YouTube. Ces algorithmes fidélisent les utilisateurs en leur  proposant des contenus susceptibles  de les maintenir connectés et génèrent un maximum de revenus publicitaires pour les annonceurs. La plupart d'entre eux reposent sur  des algorithmes d'apprentissage profond .

Une seconde catégorie est celle de l'IA générative (genAI), dont les modèles les plus connus sont ceux développés par OpenAI : ChatGPT pour la génération de texte, Dall-e pour la génération d'images et Sora pour la génération vidéo. Parmi les autres exemples, citons Claude (Anthropic), Grok (X-AI), Gemini (Google) et Meta-AI pour les modèles de langage étendu (LLM), ainsi que Midjourney et Stable Diffusion pour la génération d'images. Les modèles d'image, de son et de vidéo les plus récents sont également appelés « modèles de diffusion » car ils sont capables de traiter simultanément du texte, du son et des images. Ces modèles de langage étendu (LLM) et modèles de diffusion reposent sur l'architecture Transformer, inventée en 2017, et sont entraînés à l'aide de méthodes d'apprentissage profond.

Le troisième type de modèle, qui recèle encore un fort potentiel de développement, est celui des modèles robotiques. Contrairement aux robots « traditionnels », dont il convient de les distinguer, ces systèmes peuvent adapter leur comportement en fonction de données expérimentales plutôt que de suivre un scénario prédéfini. Leurs applications sont bien moins développées que celles des deux types précédents. On peut toutefois citer des modèles récemment utilisés sur des drones de combat en Ukraine, quelques robots intégrés à des plateformes logistiques, certains robots industriels et d'autres encore employés pour la surveillance de sites militaires.

Enfin, ces modèles peuvent être capables d'utiliser d'autres services, comme effectuer des recherches sur le Web, produire et exécuter du code informatique, lire des fichiers, interagir avec des pages Web ou utiliser des protocoles de communication à distance. On les appelle des « agents ». Les modèles génératifs dotés de ces capacités obtiennent les meilleurs résultats aux tests de performance les plus exigeants, comme  Humanity Last Exam .

Une autre dichotomie oppose les modèles propriétaires aux modèles open source. Les entreprises qui fabriquent les premiers fournissent un minimum d'informations sur leur fonctionnement, les sources des données d'entraînement, l'architecture exacte (y compris le nombre de paramètres, qui permet d'évaluer l'impact économique et énergétique de l'utilisation du modèle), les mécanismes de sécurité, etc.

Ces plateformes permettent aux utilisateurs d'utiliser les modèles, via une application web ou mobile, souvent selon un modèle freemium : l'accès aux versions les plus simples est gratuit, tandis que les versions plus avancées sont soumises à des limitations d'utilisation. L'accès aux fonctionnalités avancées de l'application nécessite un abonnement (disponible en versions entreprise et individuelle) coûtant quelques dizaines de dollars par mois.

L'accès aux fonctionnalités de pointe nécessite un abonnement de quelques centaines d'euros par mois. Ils proposent également l'utilisation de leurs modèles, par exemple pour les intégrer à des applications tierces, via des API (Interface de Programmation d'Applications : une interface permettant à un logiciel d'offrir des services à un autre – en l'occurrence, entre un utilisateur qui envoie une requête à un serveur, éventuellement accompagnée d'autres informations, comme une clé d'authentification, et un serveur qui renvoie la réponse du modèle d'IA), avec un paiement à l'utilisation (correspondant au nombre de jetons envoyés et reçus – le jeton étant l'unité sémantique des LLM ; en anglais, un jeton correspond en moyenne aux trois quarts d'un mot).

Les modèles open source sont disponibles au téléchargement, le plus souvent via la plateforme franco-américaine Hugging Face, acteur majeur du secteur fondé en 2016 et dont la plateforme a dépassé le milliard de requêtes annuelles en 2024. Ainsi, toute personne disposant de ressources de calcul suffisantes peut utiliser le modèle depuis ses propres serveurs, le modifier, l'améliorer, l'élaguer, l'affiner, etc. Il est également possible de l'utiliser via une API Hugging Face et souvent aussi par l'intermédiaire des créateurs du modèle, généralement à un coût bien inférieur à celui des modèles propriétaires. Par exemple, ChatGPT 5.2 coûte 14 $ par million de jetons émis et 1,4 $ par million de jetons entrants, tandis que la dernière version de DeepSeek coûte 0,42 $ par million de jetons produits et 0,26 $ par million de jetons entrants.

Cependant, l'open source ne garantit pas une transparence totale, notamment en ce qui concerne les données, les processus et les algorithmes d'apprentissage, ni l'absence de risques d'abus ou de mauvaise utilisation. Des sites comme https://llm-stats.com/ — qui permet aux utilisateurs de comparer en temps réel les performances de différents LLM sur divers benchmarks et d'afficher leurs prix — publient régulièrement des classements. 

Le dernier classement montre clairement que les entreprises américaines (OpenAI, Google, Anthropic, X-AI) produisent les modèles propriétaires de la plus haute qualité, tandis que les entreprises chinoises (DeepSeek, Alibaba, MoonShot, ZnipuAI, etc.) développent les modèles open source les plus performants. Le premier modèle non chinois, Mistral Large 3, développé par la société française Mistral, n'arrive qu'en 55e position ( au  14 mars 2026 ) aux tests de programmation (et 36e en  tant que chatbot de questions-réponses, où il excelle). Une autre comparaison intéressante est  celle de LMSYS , basée sur les avis des utilisateurs. Les comparaisons proposées sur ce site confirment ces résultats : les modèles propriétaires américains devancent largement les modèles open source chinois. Toutefois, il convient d'interpréter ces benchmarks avec prudence : certains concepteurs peuvent délibérément sur-entraîner leurs modèles, souvent au détriment des performances réelles.

Les défis liés à l'utilisation des modèles

Une caractéristique essentielle d'un modèle est son nombre de paramètres. Celui-ci correspond au nombre de variables libres ajustées lors de l'apprentissage du modèle.

À processus d'entraînement identique, plus un modèle possède de paramètres, meilleures sont ses performances, mais plus son entraînement est long et gourmand en ressources de calcul, tout comme son utilisation lorsqu'il est sollicité. À titre indicatif, les modèles de classification d'images les plus performants (ResNet et  MobileNet de Google, par exemple , pour les tâches sur ImageNet, le jeu de données de référence) possèdent aujourd'hui des dizaines de millions de paramètres.

Ces modèles peuvent être entraînés sur un bon ordinateur portable utilisé par les graphistes ou les passionnés de jeux vidéo, nécessitant quelques dizaines de watts de puissance (la puissance d'une ampoule à incandescence basse consommation).

Les grands modèles de langage — une catégorie qui englobe la plupart des modèles d'IA générative — possèdent plusieurs milliards de paramètres pour les modèles hautement spécialisés. Ces derniers peuvent fonctionner sur un serveur de la taille d'un grand placard à balais, avec une consommation électrique équivalente à celle d'un foyer moyen. Les modèles généralistes tels que Gemini, Grok, GPT et Claude comptent plusieurs centaines, voire près d'un millier de paramètres. Les utiliser à domicile, pour un usage personnel, avec la même qualité de service qu'un abonnement professionnel haut de gamme, nécessiterait une pièce dédiée aux serveurs et au refroidissement, ainsi qu'une consommation électrique comparable à celle de plusieurs dizaines de foyers.

C’est pourquoi, pour des applications confidentielles, comme les services d’une PME de haute technologie, il est préférable d’utiliser des modèles open source (Nemotron de Nvidia, Qwen d’Alibaba, DeepSeek, Kimi de MoonshotAI, etc.) de taille réduite (environ 30 milliards de paramètres). L’expérience montre qu’un modèle petit et bien choisi obtient souvent de bien meilleurs résultats que les modèles généralistes, après un traitement approprié des données (RAG, agentisation du système et ingénierie des réponses). Il est souvent inutile de les affiner pour des tâches ou des domaines spécifiques, compte tenu du coût humain et matériel d’une telle opération et de l’amélioration très rapide de ces petits modèles par leurs concepteurs. Cependant, ce type d’opération peut s’avérer utile pour les modèles intermédiaires de traitement automatique du langage naturel (TALN) comportant moins d’un milliard de paramètres dans la chaîne de traitement des données (par exemple, les modèles de type BERT).

Producteurs de modèles d'intelligence artificielle

Jusqu'à fin 2022, l'intelligence artificielle était principalement un domaine de recherche. La grande majorité des modèles et algorithmes étaient publics, et leur utilisation à des fins économiques se limitait à des cas d'usage très spécifiques.

La gestion et l'utilisation des données des internautes à des fins publicitaires et de recommandations de contenu – les dérivés de ces algorithmes restent des composantes essentielles de produits et d'entreprises tels que YouTube, Google Ads, Facebook, Instagram et Criteo. Ils reposent sur une analyse statistique avancée de volumes massifs de données d'utilisation. Les modèles ont été conçus pour être peu coûteux, rapides et quasi optimaux pour des tâches spécifiques.

- analyse d'images satellites à des fins de renseignement militaire ou économique pour le compte de banques et de fonds d'investissement ;

- algorithmes de trading ;

- analyse automatique d'images médicales ;

- traduction de texte ;

— des utilisations expérimentales par les services de renseignement gouvernementaux ou militaires, comme l’analyse automatique de grandes quantités de données vocales et textuelles collectées par des services tels que la NSA dans le but de détecter d’éventuelles attaques terroristes, ou l’utilisation d’exosquelettes dans l’armée et, plus généralement, des expériences avec des soldats augmentés.

Cette utilisation se développe encore plus significativement en Chine, qui sert de terrain d'expérimentation sociale. Néanmoins, même dans les secteurs concernés, à l'exception du premier cas en raison des volumes de données traitées, le recours à l'apprentissage automatique est resté marginal, et les entreprises ont développé leurs algorithmes soit pour un usage strictement interne, soit pour les vendre à des professionnels de secteurs de pointe. Le développement de la robotique autonome n'a pas débouché sur une commercialisation à grande échelle, comme en témoignent les nombreux changements de propriétaire de Boston Dynamics, célèbre pour ses vidéos de robots sur YouTube et actuellement l'une des entreprises les plus avancées dans ce domaine.

Depuis la mise à disposition de ChatGPT au grand public, la situation a considérablement évolué. L'entreprise américaine aura levé près de 60 milliards de dollars et devrait en avoir dépensé 100 milliards d'ici 2029. Selon le cabinet américain Gartner, les dépenses mondiales en IA sont estimées à 1 500 milliards de dollars en 2025, soit 1,5 % du PIB mondial. Microsoft détient 51 % du géant de l'IA et rentabilise son investissement grâce à ses services cloud. Google tente de suivre le même modèle économique, avec moins de succès. À l'heure actuelle, Anthropic, avec Claude Opus 4.6, propose le  modèle de langage agentique le plus performant . Cependant, les performances sont souvent variables, et ce sont parfois les modèles Gemini, Claude ou GPT qui dominent les classements. Meta (Llama), Alibaba (Qwen), Xiaomi, ZnipuAI (GLM) et Baidu (Ernie) se sont également lancés dans la course aux grands modèles de langage sans réaliser de profit financier, choisissant de partager leurs modèles en open source. D'autres sociétés ont été créées spécifiquement pour développer des modèles d'IA génératifs : X-AI (Grok) aux États-Unis, DeepSeek et MoonShotAI (Kimi) en Chine, et Mistral en France.

Aucune de ces entreprises n'est actuellement rentable.  Pour les géants, l'objectif est de produire les meilleurs modèles afin d'acquérir un maximum d'utilisateurs dépendants, conformément à la logique bien connue du secteur technologique : « le gagnant rafle la mise », au prix d'investissements de plusieurs centaines de milliards. L'exploitation des LLM propriétaires ne génère aucun profit, ni pour les géants, dont les sources de revenus historiques (recherche sponsorisée pour Google, publicité pour Meta, ventes de logiciels pour Microsoft) restent largement prédominantes, ni pour les grandes startups spécialisées. En revanche, le cloud génère des revenus croissants (+34 % pour Google Cloud et Microsoft Azure, qui hébergent également les principaux modèles d'IA à usage interne en entreprise, +19 % pour AWS).

Les acteurs de plus petite taille, comme Mistral, savent qu'en raison de leurs capacités financières relativement faibles, ils ne pourront probablement pas rivaliser avec les plus grands acteurs en termes de performance et de marketing, et décident donc de développer des services aux entreprises, leur permettant d'obtenir des revenus stables à long terme et des bénéfices facilement prévisibles qui rassurent les investisseurs.

L’écosystème économique de l’IA générative. Une bulle financière ?

Dans cette économie de l'IA, au-delà des grands acteurs, il est important de considérer la chaîne dans son ensemble. Autour de ces producteurs de modèles fondamentaux,  toute une économie  se développe.

En aval, certains utilisent ces modèles, en les modifiant éventuellement s'ils sont open source, afin de les améliorer et de les spécialiser. Des entreprises comme Perplexity, Character.ai et des dizaines de startups sectorielles (santé, finance, RH, juridique) développent des services basés sur ces modèles via des API, combinant ingénierie rapide, outils externes et données propriétaires.

Les techniques employées pour ces services reposent souvent sur une ingénierie rapide : l’art délicat de rédiger des instructions concises (afin de limiter les coûts) mais suffisamment complètes et claires pour obtenir le résultat escompté du modèle. Ces services peuvent, à l’instar de Perplexity, s’adresser à un large public (B2C) ou être conçus pour répondre aux besoins spécifiques des entreprises (B2B). Ces dernières cherchent à capter un maximum d’utilisateurs et de développeurs dépendants de leur écosystème, quitte à accepter des pertes financières considérables sur plusieurs années.

Enfin, il existe des utilisateurs directs (via une plateforme clairement identifiée comme une IA) ou indirects, qui consomment de l'IA, parfois à leur insu — la majorité des articles disponibles sur Internet sont rédigés par des IA. Ces utilisateurs peuvent utiliser l'IA à des fins personnelles ou parfois professionnelles, en envoyant potentiellement des données économiquement sensibles à des destinations inconnues.

En amont, on trouve les producteurs de puces spécialisées : ceux qui conçoivent et commercialisent les puces, comme Nvidia, Google, ARM, Intel, etc. ; ceux qui fabriquent les machines essentielles et coûteuses nécessaires à leur production, comme la société néerlandaise ASML ; ceux, souvent chinois, taïwanais ou coréens, qui fabriquent les puces (Foxconn, TSMC, SK Hynix) ; et ceux, des mêmes nationalités, qui extraient les matières premières précieuses nécessaires à leur fabrication (notamment OCI, GCL-Poly, CNRE, CMOC). On trouve également ceux qui assemblent les processeurs graphiques en serveurs destinés aux entreprises : Oracle, Amazon Web Services, Google Cloud, Microsoft, et dans une moindre mesure, le français Scaleway et d’autres fournisseurs de cloud historiques comme OVH ou Arum Technologies, qui commencent progressivement à proposer des services d’intelligence artificielle.

Peut-on donc parler de bulle de l'IA ? La meilleure comparaison serait celle avec la bulle internet du début des années 2000. À l'instar d'internet, l'IA continuera d'être largement utilisée à l'avenir, et ses coûts en ressources matérielles et énergétiques diminueront considérablement dans les années à venir, tandis que ses performances seront décuplées. Les entreprises bien établies avant l'avènement de l'IA (Microsoft, Nvidia, Google, Meta, Amazon, Oracle) et déjà diversifiées pourraient être surévaluées en bourse, mais toute baisse sera probablement rapidement compensée, car l'IA ne constitue pas leur cœur de métier et leurs actifs liés à l'IA ont peu de chances de chuter grâce à une stratégie de facturation et d'investissement qui leur assure une sécurité financière. En revanche, de nombreuses startups spécialisées dans l'IA, ou « licornes », pourraient disparaître ou être rachetées, faute de modèle économique rentable une fois l'euphorie boursière retombée. Ce sont celles, grandes et petites, qui n'auront pas réussi à se rendre indispensables avant l'éclatement de la bulle, contrairement à de nombreuses startups – dont certaines avaient déjà atteint le stade de l'introduction en bourse – avant la bulle internet. D'autres entreprises qui subiront un revers majeur sont celles qui ont investi massivement dans l'IA, mais de manière inefficace, et qui, par conséquent, ont été surévaluées.

La situation est néanmoins plus complexe pour les grands acteurs américains indépendants de l'IA, tels qu'OpenAI : malgré un grand nombre de clients payants via API ou abonnement,  ils restent fortement déficitaires  ( avec des pertes annuelles estimées à 30 milliards de dollars d'ici 2025 ) et sont soutenus, en partie,  par des investissements circulaires  liés à l'achat de GPU Nvidia. L'entreprise prévoit d'être rentable d'ici 2030. Mais il est également possible que le leader mondial de l'IA générative doive apprendre la modération et la diversification pour atteindre la rentabilité.

Les acteurs chinois auront accès à un marché de plusieurs milliards de consommateurs. La Chine pourrait rapidement devenir la première économie de l'IA – sans compter la sous-traitance pour les entreprises occidentales – avec des investissements bien moindres que ses concurrents américains et une économie pleinement souveraine. Grâce à la collecte massive de données issues de la vie privée de ses citoyens, la Chine dispose également d'un ensemble de données d'entraînement unique au monde et d'une grande valeur financière. Il est donc fort probable qu'elle ne soit pas affectée par la bulle de l'IA et qu'elle puisse, à terme, acquérir une forme de domination. Enfin, si les Européens réussissent à bâtir une économie de l'intelligence artificielle, il est très probable que, plus modeste, elle soit principalement soutenue par leurs clients plutôt que par des investissements massifs et ne soit donc pas gravement touchée par l'éclatement éventuel d'une bulle financière. Toutefois, les clients doivent leur préférer leurs concurrents américains et chinois, plus visibles et commercialement plus agressifs.

La révolution de l'IA générative représente non seulement une avancée technologique majeure, mais aussi une révolution pour l'économie mondiale, avec des implications géostratégiques essentielles.

Cela soulève donc des questions politiques, notamment concernant le matériel nécessaire à l'IA, qui représente près de 95 % de son coût. Dans le prochain article, nous aborderons les problématiques liées à la fabrication des GPU (un monopole de l'entreprise américaine Nvidia), aux terres rares et aux semi-conducteurs, à l'impact écologique, etc. Vous comprendrez ainsi la logique des chiffres que vous venez de lire. Le risque réside dans l'imposition unilatérale de règles par les États-Unis et la Chine, au détriment des démocraties.