Quels sont les différents types d’IA en 2025 ?
Découvrez simplement les types d’IA selon leur niveau (ANI, AGI, ASI) et leur fonctionnement (réactive, mémoire limitée, théorie de l’esprit, conscience de soi).
Aujourd’hui, l’intelligence artificielle peut coder des applis, répondre à vos mails, résoudre des équations complexes, et parfois mieux que vous. Mais comment en est-elle arrivée là ? Si l’idée d’intelligences non-humaines fascine depuis l’Antiquité, ce n’est que depuis les années 1950 que nous touchons ces technologies du doigt.
Depuis, l’histoire de l’intelligence artificielle a été marquée par des sauts technologiques spectaculaires, mais aussi par des promesses non tenues, et quelques hivers de l’IA bien froids. Pourtant, à chaque renaissance, l’IA est revenue, plus puissante que jamais.
Dans cet article, vous découvrirez justement 10 dates qui ont marqué l’évolution de l’IA, et qui vous permettront de comprendre comment elle est devenue ce qu’elle est aujourd’hui.
Mais vous le savez, l’histoire de l’IA ne fait que commencer. Et si vous écriviez la suite ? Pour cela, une solution : rejoindre l’une des meilleures formations en intelligence artificielle.
Si vous avez vu le film Imitation Game, vous savez déjà qu’Alan Turing est le génie qui a réussi à casser le code d’Enigma pendant la Seconde Guerre mondiale. Brillant mathématicien britannique, ses travaux ont posé les bases de l’informatique moderne et de l’intelligence artificielle. Mais pour comprendre son impact sur ces disciplines, remontons quelques années en arrière.
L’idée de créer des êtres pensants non-humains hante notre imaginaire depuis l’Antiquité. Pensez à Talos, ce robot forgé par Héphaïstos pour protéger la Crète, ou encore à Frankenstein de Mary Shelley. Or, à partir des années 1930, les progrès de la neurologie ont permis de comprendre que les neurones du cerveau fonctionnaient comme des circuits électriques. Un peu comme une machine, donc. Il n’en fallait pas plus aux chercheurs pour se demander s’il était effectivement possible de créer de toutes pièces une forme d’intelligence artificielle (artificielle car non issue de la nature).
Cela a conduit, en 1943, à la publication d’un article où Warren McCullough et Walter Pitts présentaient le premier modèle mathématique pour tenter de créer un réseau artificiel de neurones. Réseau créé en 1951 par 2 étudiants d’Harvard : Marvin Minsky et Dean Edmonds.
Mais alors qu’on s’apprêtait à créer le premier « cerveau artificiel », une question se posait : une machine pouvait-elle penser ? S’il n’était pas capable d’y répondre, Alan Turing a néanmoins mis au point le test de Turing, un jeu d’imitation où une machine doit tenter de se faire passer pour un humain dans une conversation. Et si elle parvient à faire illusion, on est en droit de se poser de sérieuses questions… Preuve que ces travaux continuent de nous influencer : le test de Turing est encore utilisé aujourd’hui (avec quelques adaptations) pour évaluer les performances des IA génératives.
À l’été 1956 au Dartmouth College, dans le New Hampshire, a lieu une conférence fondatrice : la « Dartmouth Summer Research Project on Artificial Intelligence ». C’est à cette occasion que John McCarthy, un jeune chercheur visionnaire, propose le terme « intelligence artificielle » (ou si on veut être exact, « Artificial Intelligence », la conférence étant donnée en anglais).
L’intelligence artificielle n’est encore qu’un concept, mais cette conférence marque le point de départ officiel de la recherche en IA. L’idée centrale qui ressort des débats : créer des ordinateurs qui pourraient un jour simuler des fonctions humaines comme l’apprentissage, la mémoire ou la résolution de problèmes.
10 ans après la conférence de Dartmouth, l’IA s’invite chez les psys. Ou presque.
Nous sommes en 1966 lorsque Joseph Weizenbaum, chercheur au MIT, développe ELIZA, un programme capable de simuler une conversation avec un psychothérapeute rogerien (vous savez, le genre de psy qui vous demande « et pourquoi pensez-vous cela ? » lorsque vous lui exposez certains aspects de votre vie).
ELIZA fonctionnait de manière assez simple : plutôt que de les formuler à voix haute, l’utilisateur tapait ses problèmes à l’écrit avant de les envoyer à la machine. ELIZA reformulait alors son entrée, ou piochait dans une banque de réponses préprogrammées pour relancer la discussion. Le but de Weizenbaum avec son invention ? Montrer les limites de la machine. Problème ? Il a surtout mis en lumière celles des humains, puisque nombreux sont ceux qui se sont attachés à leur psy artificiel, pensant même qu’ils conversaient avec un véritable être humain, ou tout du moins, avec une machine réellement intelligente…
Toujours est-il que ce programme est aujourd’hui considéré comme le premier chatbot de l’histoire, et qu’il a permis de prouver qu’un ordinateur pouvait interagir en langage naturel. Cela a d’ailleurs donné naissance à toute une branche de la recherche en IA : le traitement automatique du langage naturel (TALN).
Après plusieurs années de passages à vide (ce que l’on appelle les « hivers de l’IA »), c’est grâce aux échecs que la recherche sur l’IA va connaître un coup de boost. Dans les années 1990, IBM commence en effet à travailler sur un supercalculateur spécialisé dans ce jeu. L’objectif ? Que la machine batte Kasparov, l’un des plus grands champions du monde d’échecs de tous les temps.
Après une première tentative ratée en 1996, en 1997, l’évolution du superordinateur permet à Deep Blue de prendre sa revanche et de battre Kasparov. C’est une première historique : jamais une machine n’avait battu un humain au plus haut niveau et dans un jeu aussi complexe. Et pour cause : les échecs ne sont pas qu’une affaire de calcul, car ils demandent de l’intuition, de la stratégie, de la créativité. Tout ce qu’on pensait réservé aux cerveaux biologiques.
Mais comment a fait Deep Blue pour réaliser cette prouesse ? Si le superordinateur n’a pas d’intuition, il a un véritable superpouvoir : une puissance de calcul phénoménale, qui lui permet d’analyser 200 millions de coups par seconde pour identifier la meilleure option.
L'humanité réalise alors que l’IA peut surpasser l’humain dans certaines tâches complexes. Ce match marque ainsi l’histoire de l’intelligence artificielle, et a inspiré de nombreux livres et films sur l’IA.
Après les désillusions des années 1990, la victoire de Deep Blue a relancé en fanfares la recherche sur l’intelligence artificielle. Et en 2006, un double événement va lui donner un coup de fouet décisif.
D’un côté, les volumes de données produits explosent. En cause : la démocratisation d’Internet, la naissance et la popularisation des réseaux sociaux, mais aussi l’apparition de la 3G et des premiers smartphones. Et ça tombe bien, parce qu’au même moment, le projet Hadoop devient open source, permettant pour la première fois de stocker des montagnes de données pour pouvoir les traiter efficacement. On parle alors de Big Data.
L’envolée de la Data permet à Geoffrey Hinton, un chercheur canadien longtemps marginalisé pour ses travaux sur les réseaux de neurones, de revenir sur le devant de la scène. Il relance le concept de Deep Learning (ou apprentissage profond), une technique qui tente d’imiter les mécanismes d’apprentissage du cerveau humain, et que l’on peut enfin mettre en œuvre grâce aux immenses quantités de données désormais disponibles (mais aussi grâce à la puissance des nouvelles cartes graphiques).
Résultat ? Ce que l’on avait relégué aux tiroirs quelques années plus tôt devient la technologie star des années 2010, et le Deep Learning est à l’origine de la plupart des avancées majeures en intelligence artificielle qui vont suivre.
Geoffrey Hinton a trouvé ses successeurs puisqu’en 2012, ce sont les élèves dont il est directeur de thèse qui vont faire basculer le monde de l’IA dans une nouvelle ère.
Chaque année, le challenge ImageNet met à l’épreuve des algorithmes chargés d’identifier des objets dans des millions de photos. Jusque-là, les meilleurs modèles plafonnaient. Mais ça, c’était jusqu’à l’arrivée d’AlexNet, un réseau de neurones développé par Alex Krizhevsky et Ilya Sutskever sous la direction de Geoffrey Hinton.
Leur modèle ne se contente pas de gagner ce concours de reconnaissance d’images : il pulvérise les scores, et fait 10,8 % d’erreurs en moins que le deuxième. Une claque, et surtout un succès largement dû au Deep Learning et à l’utilisation de GPU pour l'entraînement de ce modèle.
Mais ce résultat confirme surtout ce que certains pressentaient déjà : les réseaux de neurones profonds sont redoutablement efficaces.
À partir de là, tout s’accélère, et le Deep Learning s’invite partout : dans la vision par ordinateur, le traitement du langage, la reconnaissance vocale, les voitures autonomes, et même dans nos smartphones.
Pendant des années, le jeu de Go était considéré comme la dernière frontière. Il avait en effet tellement de subtilités qu’aucune IA n’aurait dû pouvoir rivaliser avec les meilleurs joueurs humains. Et pourtant…
En 2016, AlphaGo, une intelligence artificielle développée par DeepMind, affronte Lee Sedol, l’un des plus grands joueurs de Go de l’histoire. Le verdict ? 4–1. Mais pas pour l’humain. Pour la machine. Un choc mondial.
Ce qui rend AlphaGo si redoutable, c’est sa stratégie hybride, qui combine des réseaux de neurones pour évaluer les positions des pierres, et un algorithme de parcours qui lui permet de déterminer les meilleurs coups.
Ce match a une nouvelle fois montré que l’IA pouvait briller dans des domaines qu’on pensait réservés à l’intuition humaine, mais a aussi permis de prouver la puissance des modèles hybrides.
En 2018, Google dévoile un nouveau modèle de traitement du langage naturel qui va tout bouleverser : BERT.
Son nom (pour Bidirectional Encoder Representations from Transformers) peut paraître barbare, mais l’idée derrière est brillante. Contrairement aux modèles précédents, BERT lit une phrase dans les deux sens, de gauche à droite… et de droite à gauche.
Et ce détail change tout, car pour comprendre le sens d’un mot, il faut tenir compte de ce qui l’entoure : ce qui vient avant, mais aussi ce qui suit. Grâce à cette lecture bidirectionnelle, BERT peut analyser finement le contexte d’une phrase, d’un mot, ou même d’une question.
Résultat ? Des réponses plus précises, une compréhension plus naturelle, et une amélioration notable de Google Search. BERT devient ainsi rapidement la base des modèles NLP modernes et marque un tournant dans l’histoire de l’intelligence artificielle.
En 2020, OpenAI dévoile un modèle qui va propulser l’intelligence artificielle dans une toute nouvelle dimension : GPT-3. Ce qui impressionne le plus ? La taille de ce modèle de langage, puisqu’avec 175 milliards de paramètres, GPT-3 devient le plus grand modèle de langage jamais entraîné.
Il peut rédiger un texte, résumer un article ou traduire une phrase, le tout à partir d’un simple prompt. Et c’est justement là la nouveauté : GPT-3 alimente alors Chat GPT, un agent conversationnel que tout le monde peut faire fonctionner à partir de quelques lignes de consigne en langage naturel. Cette capacité donne naissance à une nouvelle compétence : le Prompt Engineering, que l’on pourrait traduire par l’art de parler à une IA pour obtenir ce que l’on veut.
Résultat ? Pour la première fois, l’IA devient accessible au grand public. Plus besoin d’être chercheur ou codeur pour l’utiliser, il suffit de savoir formuler les bons prompts. Une véritable révolution !
Avec la popularisation de ChatGPT, les géants de la tech se sont lancés dans une course. L’objectif : être les premiers à proposer un assistant basé sur l’IA générative le plus complet possible.
Entre 2024 et 2025, on a ainsi vu les Deeptech comme OpenAI, Anthropic, Google, ou encore l’entreprise d’IA française Mistral AI, se lancer dans la course aux assistants IA multimodaux.
Presque chaque mois, un nouveau modèle est ainsi dévoilé par les géants de la tech, et ils sont à chaque fois de plus en plus poussés et complets. Aujourd’hui, ils ne se contentent plus de lire ou d’écrire : ils voient, entendent, parlent et raisonnent même. Le but ? Devenir l’assistant IA universel parfaitement intégré à nos outils du quotidien, peu importe nos usages et nos besoins.
Mais développer un assistant IA universel n’est pas l’objectif final de ces géants. Non, ce qu’ils souhaitent réellement à travers cette course, c’est d’être les premiers à réussir à développer une AGI, une IA qui serait capable de nous égaler, voire de nous surpasser, dans tous les domaines.
Quelles sont les meilleures formations en IA ?
L’intelligence artificielle entre dans une nouvelle ère. Et si vous étiez de ceux qui la façonnent ? Que vous soyez en reconversion, débutant, ou déjà dans la tech, chez Jedha, nous vous proposons des formations concrètes pour travailler dans l’IA ou en faire un véritable levier d’évolution professionnelle :
Envie d’en savoir plus ? Alors téléchargez notre syllabus pour découvrir notre offre de formation en détail, et venez nous poser toutes vos questions lors de notre prochaine Soirée Portes Ouvertes en ligne !
Le terme « intelligence artificielle » a été inventé en 1956 par John McCarthy lors de la conférence de Dartmouth. Mais loin d’être le seul pionnier de l’IA, parmi ses pères fondateurs, on retrouve également Alan Turing, qui, dès 1950, établissait un test encore partiellement utilisé aujourd’hui pour évaluer les progrès de l’intelligence artificielle.
Stochastic Neural Analog Reinforcement Calculator, ou SNARC, est souvent considérée comme la première intelligence artificielle. Il s’agit en fait du premier réseau de neurones artificiels de l’histoire, qui a été créée en 1951 par Marvin Minsky et Dean Edmonds, qui s’inspiraient alors des travaux de Warren McCullough et Walter Pitts sur le fonctionnement du cerveau humain publiés en 1943.
Les hivers de l’IA désignent des périodes où l’enthousiasme et les financements autour de l’IA se sont effondrés, faute de résultats concrets. Il y en a eu deux principaux : à la fin des années 1970 et dans les années 1990.
Il est impossible de prédire les progrès à venir, mais une chose est sûre : la recherche actuelle sur l’IA se tourne vers des modèles toujours plus multimodaux, capables de traiter aussi bien des textes, des images, des sons et des vidéos. L’intelligence artificielle étant de plus en plus intégrée à notre quotidien, les assistants personnalisés ont également de beaux jours devant eux, et seront probablement de plus en plus perfectionnés.