Pronostic : Une véritable Intelligence Artificielle Générale -- un système qui opère à un niveau humain ou surhumain dans tous les domaines cognitifs -- existera d'ici 2035. Elle ne sera pas accessible au public.
L'AGI (Artificial General Intelligence) désigne un système d'IA qui n'est pas limité à un domaine -- comme les échecs, la génération de texte ou l'analyse d'images -- mais qui opère à un niveau humain ou surhumain dans toutes les tâches cognitives. La transition des modèles de langage actuels vers l'AGI est qualitative : les modèles actuels sont des spécialistes avec un large savoir. L'AGI serait un généraliste avec une compréhension profonde.
Trois développements convergent :
Puissance de calcul : Doublement tous les deux ans (loi de Moore et ses successeurs). Le matériel pour l'AGI n'est plus une question théorique, mais industrielle [1].
Algorithmes : L'architecture Transformer (2017) a posé les fondations [2]. Depuis lors, les architectures s'améliorent en cycles toujours plus courts. Depuis janvier 2026, l'IA s'améliore elle-même -- elle réécrit son propre code, le teste, écarte ce qui ne fonctionne pas.
Données : L'ensemble du savoir numérisé de l'humanité est disponible comme matériel d'entraînement. Les données synthétiques étendent ce réservoir à l'infini.
Pronostic : L'AGI est une question de temps, pas de si. La seule question est de savoir si ce sont les démocraties ou les autocraties qui gagneront la course.
Le pouvoir qui émerge de l'AGI changera géopolitiquement quelle nation ou quel groupe contrôle en premier. Celui qui contrôle l'AGI contrôle potentiellement :
Nick Bostrom a averti en 2014 dans Superintelligence : une IA superintelligente dont le seul objectif est de fabriquer le plus de trombones possible transforme la planète entière en trombones. Pas par méchanceté. Par devoir accompli [3].
Stuart Russell a répondu en 2019 dans Human Compatible : le problème n'est pas l'IA. Le problème est que nous donnons des objectifs fixes à l'IA. Au lieu de cela, la machine devrait être fondamentalement incertaine quant aux désirs humains et toujours prête à se laisser éteindre. Russell appelle cela la provably beneficial AI [4].
Pour la Suisse, c'est la question géopolitique la plus existentielle depuis la Guerre froide. La neutralité suisse, un rempart au 20e siècle, pourrait dégénérer en insignifiance à l'ère de l'AGI.
Mais la situation de départ est meilleure qu'on ne le pense :
Les systèmes dotés d'intelligence générale doivent être soumis à une autorité de surveillance internationale -- similaire à l'AIEA pour la technologie nucléaire. Pas d'AGI sans légitimation démocratique et contrôle international. Genève, en tant que siège de nombreuses organisations internationales, serait le lieu naturel pour une telle autorité.
La question « Que fait l'IA de nous ? » est la mauvaise question. La bonne est : « Qui contrôle l'IA -- et dans quel intérêt ? »
[1] Sevilla, Jaime et al.: Compute Trends Across Three Eras of Machine Learning. arXiv:2202.05924, 2022.
[2] Vaswani, Ashish et al.: Attention Is All You Need. NeurIPS, 2017.
[3] Bostrom, Nick: Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014.
[4] Russell, Stuart: Human Compatible: Artificial Intelligence and the Problem of Control. Viking, 2019.
[5] Hochreiter, Sepp / Schmidhuber, Jürgen: Long Short-Term Memory. Neural Computation 9(8), 1997.
[6] FMI (Fonds monétaire international) : AI Preparedness Index. 2024.