Prognose: Eine echte Artificial General Intelligence -- ein System, das in allen kognitiven Domänen auf menschlichem oder übermenschlichem Niveau operiert -- wird bis 2035 existieren. Sie wird nicht öffentlich zugänglich sein.
AGI (Artificial General Intelligence) bezeichnet ein KI-System, das nicht auf eine Domäne beschränkt ist -- etwa Schach, Textgenerierung oder Bildanalyse -- sondern in allen kognitiven Aufgaben auf menschlichem oder übermenschlichem Niveau operiert. Der Übergang von heutigen Sprachmodellen zu AGI ist qualitativ: Heutige Modelle sind Spezialisten mit breitem Wissen. AGI wäre ein Generalist mit tiefem Verständnis.
Drei Entwicklungen konvergieren:
Rechenleistung: Verdopplung alle zwei Jahre (Moores Gesetz und dessen Nachfolger). Die Hardware für AGI ist keine theoretische Frage mehr, sondern eine industrielle [1].
Algorithmen: Die Transformer-Architektur (2017) hat die Grundlage gelegt [2]. Seither verbessern sich die Architekturen in immer kürzeren Zyklen. Seit Januar 2026 verbessert sich die KI selbst -- sie schreibt ihren eigenen Code um, testet ihn, verwirft, was nicht funktioniert.
Daten: Das gesamte digitalisierte Wissen der Menschheit steht als Trainingsmaterial zur Verfügung. Synthetische Daten erweitern diesen Pool ins Unendliche.
Prognose: AGI ist eine Frage der Zeit, nicht des Ob. Die Frage ist nur, ob Demokratien oder Autokratien den Wettlauf gewinnen.
Die Macht, die aus AGI entsteht, wird geopolitisch verändern, welche Nation oder welcher Konzern sie als erste beherrscht. Wer die AGI kontrolliert, kontrolliert potentiell:
Nick Bostrom warnte 2014 in Superintelligence: Eine superintelligente KI, deren einziges Ziel es ist, möglichst viele Büroklammern herzustellen, verwandelt den gesamten Planeten in Büroklammern. Nicht aus Bosheit. Aus Pflichterfullung [3].
Stuart Russell antwortete 2019 in Human Compatible: Das Problem ist nicht die KI. Das Problem ist, dass wir der KI feste Ziele geben. Stattdessen müsse die Maschine grundsätzlich unsicher sein über menschliche Wünsche und jederzeit bereit, sich abschalten zu lassen. Russell nennt das provably beneficial AI [4].
Für die Schweiz ist das die existenziellste geopolitische Frage seit dem Kalten Krieg. Die Schweizer Neutralität, im 20. Jahrhundert ein Schutzwall, könnte im Zeitalter der AGI zur Bedeutungslosigkeit degenerieren.
Aber die Ausgangslage ist besser als vermutet:
Systeme mit allgemeiner Intelligenz müssen einer internationalen Aufsichtsbehörde unterstehen -- ähnlich der IAEA für Nukleartechnologie. Keine AGI ohne demokratische Legitimation und internationale Kontrolle. Genf, als Sitz zahlreicher internationaler Organisationen, wäre der natürliche Standort für eine solche Behörde.
Die Frage "Was macht die KI mit uns?" ist die falsche Frage. Die richtige lautet: "Wer kontrolliert die KI -- und in wessen Interesse?"
[1] Sevilla, Jaime et al.: Compute Trends Across Three Eras of Machine Learning. arXiv:2202.05924, 2022.
[2] Vaswani, Ashish et al.: Attention Is All You Need. NeurIPS, 2017.
[3] Bostrom, Nick: Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014.
[4] Russell, Stuart: Human Compatible: Artificial Intelligence and the Problem of Control. Viking, 2019.
[5] Hochreiter, Sepp / Schmidhuber, Jürgen: Long Short-Term Memory. Neural Computation 9(8), 1997.
[6] IWF (Internationaler Währungsfonds): AI Preparedness Index. 2024.