Histoire de l'IA

Les jalons qui ont façonné l'Intelligence Artificielle

De la théorie à la pratique, l'histoire de l'IA est marquée par des avancées majeures, des hivers successifs et des révolutions techniques. Voici la timeline interactive.

1950

Alan Turing et le Test de Turing

Dans son article « Can a machine think ? », Alan Turing propose le fameux « Imitation Game » : une machine pourrait-elle se faire passer pour un humain dans une conversation écrite ? Ce test pose les fondements philosophiques de l'IA.

1956

Conférence de Dartmouth

John McCarthy, Marvin Minsky, Claude Shannon et d'autres pionniers organisent l'atelier qui donne officiellement naissance au terme « Intelligence Artificielle ». Objectif : « faire accomplir par des machines des tâches qui nécessiteraient l'intelligence si elles étaient réalisées par des humains ».

1957

Perceptron de Frank Rosenblatt

Le perceptron, premier réseau de neurones artificiels capable d'apprentissage supervisé, est inventé. Il inspire les recherches futures sur le Machine Learning, même si ses limites (non linéarité) mèneront au premier « hiver de l'IA » (1970s).

1966

ELIZA, premier chatbot

Joseph Weizenbaum crée ELIZA, un programme de conversation qui simule un psychothérapeute en reformulant les phrases. Malgré sa simplicité, il impressionne et pose la question de l'illusion de compréhension par les machines.

1974-1980

Premier hiver de l'IA

Réduction des financements (rapport Lighthill en UK, rapport DARPA aux USA). Les promesses excessives (traduction automatique, reconnaissance vocale) n'ont pas été tenues. La recherche ralentit jusqu'au retour des systèmes experts.

1980

Systèmes experts

Les systèmes experts codifient le savoir humain en règles (si...alors...). Ils connaissent un succès commercial dans la médecine, la finance, l'industrie. Premier « boom » de l'IA avec des applications concrètes.

1986

Backpropagation

La rétropropagation du gradient est popularisée (Rumelhart, Hinton, Williams). Elle permet d'entraîner efficacement des réseaux multicouches. Fondation technique du Deep Learning moderne.

1997

Deep Blue bat Kasparov

L'ordinateur Deep Blue d'IBM bat le champion du monde d'échecs Garry Kasparov. Symbole de la puissance du calcul et de la recherche en arbres de décision. L'IA « symbolique » atteint un sommet médiatique.

2006

Renaissance du Deep Learning

Geoffrey Hinton et son équipe relancent l'intérêt pour les réseaux de neurones profonds avec des techniques d'initialisation et de pré-entraînement. Les GPU commencent à être utilisés pour l'entraînement.

2012

AlexNet et la révolution Deep Learning

Le réseau AlexNet domine la compétition ImageNet en reconnaissance d'images, avec une marge jamais vue. Les réseaux neuronaux profonds, dopés par le GPU et les big data, redéfinissent l'IA. C'est le début de l'ère du Deep Learning.

2016

AlphaGo bat le champion de Go

AlphaGo (DeepMind) bat Lee Sedol au jeu de Go, considéré comme bien plus complexe que les échecs. Combine réseau de neurones et apprentissage par renforcement. Démonstration que l'IA peut maîtriser l'intuition et la créativité humaine dans des jeux.

2017

Transformer et l'ère des LLM

L'architecture Transformer (« Attention is All You Need ») révolutionne le traitement du langage. Elle permet de traiter de longues séquences efficacement. Base de tous les grands modèles de langage actuels.

2020+

LLM et IA génératives

Les grands modèles de langage (LLM) et les modèles multimodaux (texte, image, audio) explosent. Les IA génératives deviennent accessibles au grand public. Une nouvelle révolution : l'IA comme assistant créatif et cognitif au quotidien.