Eine echte Artificial General Intelligence -- ein System, das in allen kognitiven Domänen auf menschlichem oder übermenschlichem Niveau operiert -- wird voraussichtlich bis 2035 existieren. Sie wird nicht öffentlich zugänglich sein. Sie wird unter staatlicher oder halbstaatlicher Kontrolle stehen. [1]
Die Macht, die daraus entsteht, wird geopolitisch verändern, welche Nation oder welcher Konzern sie als erste beherrscht. Für die Schweiz und Europa ist das die existenziellste geopolitische Frage seit dem Kalten Krieg.
Die Rechenleistung verdoppelt sich alle zwei Jahre. Die Algorithmen verbessern sich ebenfalls. Und seit Anfang 2026 verbessert sich die KI selbst -- ein Feedback-Loop, der die Entwicklung exponentiell beschleunigt. Die Frage ist nicht ob, sondern wann. [2]
Die entscheidende Frage ist: Wer gewinnt das Rennen?
| Akteur | Stärken | Risiken |
|---|---|---|
| USA (OpenAI, Google, Anthropic, Meta) | grösste Modelle, meiste Rechenleistung, Venture Capital | Konzernmacht, wenig Regulierung |
| China (Baidu, Alibaba, staatliche Programme) | Staatliche Koordination, riesige Datenmengen, keine Datenschutzbedenken | Autoritäre Kontrolle, Zensur in Trainingsdaten |
| Europa (Mistral, Aleph Alpha, DeepMind London) | Regulierungskompetenz (EU AI Act), starke Grundlagenforschung | Fragmentierung, zu wenig Risikokapital |
Wer die AGI als Erster beherrscht, kontrolliert potenziell:
Das ist keine Science-Fiction. Das US-Verteidigungsministerium hat KI bereits 2024 als zweitwichtigste Technologie für die nationale Sicherheit eingestuft. China investiert staatlich koordiniert Milliarden. [3]
Der Wettlauf um AGI ist auch ein Systemwettbewerb.
Vorteil Demokratien: Offene Forschung, Peer Review, ethische Leitplanken, Korrekturfähigkeit durch öffentliche Debatte. Die besten KI-Forscher der Welt arbeiten überproportional in demokratischen Ländern.
Vorteil Autokratien: Schnellere Entscheidungswege, keine Datenschutzbedenken, staatlich koordinierte Ressourcenbündelung. China kann in Monaten umsetzen, wofür Europa Jahre braucht.
Der historische Vergleich zum Kalten Krieg ist nicht übertrieben. Die Atombombe hat die Weltordnung definiert. Die AGI wird es erneut tun -- mit dem Unterschied, dass die Auswirkungen nicht auf das militärische beschränkt bleiben. [4]
Die Schweizer Neutralität war im 20. Jahrhundert ein Schutzwall. In einer Welt physischer Konflikte und territorialer Grenzen konnte ein kleines Land zwischen den Machtblöcken navigieren, indem es sich heraushielt.
Im Zeitalter der AGI könnte Neutralität zur Bedeutungslosigkeit degenerieren. Warum?
AGI kennt keine Grenzen. Ein System, das in den USA oder China entwickelt wird, wirkt global -- auf Finanzmärkte, auf kritische Infrastruktur, auf Informationsflüsse.
Neutralität schützt nicht vor Abhängigkeit. Wenn die Schweiz ihre KI-Infrastruktur vollständig von US-Konzernen bezieht, ist sie nicht neutral -- sie ist abhängig.
Die AGI-Frage erfordert Parteinahme. Soll AGI unter demokratischer Kontrolle stehen? Oder akzeptiert man, dass autokratische Regime die Regeln setzen? Neutralität in dieser Frage ist keine Tugend, sondern Verantwortungsverweigerung.
Trotz der Risiken ist die Ausgangslage der Schweiz besser, als viele glauben:
Internationale AGI-Kontrolle: Unternehmen, die Systeme mit allgemeiner Intelligenz entwickeln, müssen einer internationalen Aufsichtsbehörde unterstehen -- ähnlich der IAEA für Nukleartechnologie. Keine AGI ohne demokratische Legitimation und internationale Kontrolle. Genf wäre der natürliche Ort für eine solche Behörde. [8]
Verbot autonomer Waffen: Die Schweiz muss ihre Rolle als neutrales Vermittlerland nutzen und aktiv für ein internationales Moratorium autonomer letaler KI-Waffensysteme eintreten.
Nationale KI-Souveränität: Ein nationales KI-Kompetenzzentrum, das ETH, EPFL, IDSIA und die Fachhochschulen mit der Industrie verbindet. Mindestens 500 Millionen Franken öffentliche Mittel. Denn wer KI importiert, exportiert Wertschöpfung. Wer KI exportiert, importiert Wohlstand.
[1] Bostrom, Nick: Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014.
[2] Amodei, Dario: Machines of Loving Grace. Anthropic Blog, Oktober 2024.
[3] US Department of Defense: National Defense Strategy 2024. KI als strategische Technologie.
[5] QS World University Rankings 2025: ETH Zürich Rang 7, EPFL Rang 12.
[6] Hochreiter, S. / Schmidhuber, J.: Long Short-Term Memory. In: Neural Computation 9(8), 1997.
[7] Internationaler Währungsfonds IWF: AI Preparedness Index 2024. Schweiz Rang 3.
[8] UN Secretary-General's High-Level Advisory Body on Artificial Intelligence: Governing AI for Humanity. Interim Report, 2024.