Wer die AGI kontrolliert, kontrolliert potentiell die globale Wirtschaft, die Cyber-Sicherheitsinfrastruktur und militärische Überlegenheit.
Unternehmen, die Systeme mit allgemeiner Intelligenz (AGI) entwickeln, müssen einer internationalen Aufsichtsbehörde unterstehen -- ähnlich der IAEA für Nukleartechnologie. Keine AGI ohne demokratische Legitimation und internationale Kontrolle.
Artificial General Intelligence (AGI) bezeichnet ein KI-System, das in allen kognitiven Domänen auf menschlichem oder übermenschlichem Niveau operiert -- nicht nur in einer Spezialaufgabe (wie Schach oder Textgenerierung), sondern in jeder intellektuellen Tätigkeit [1].
Die führenden KI-Labore -- OpenAI, Google DeepMind, Anthropic -- erklären öffentlich, dass AGI ihr Ziel ist. Sam Altman (OpenAI) sprach 2024 von "wenigen Jahren" [2]. Dario Amodei (Anthropic) beschrieb die Entwicklung als "eine Frage der Skalierung" [3]. Die Rechenleistung verdoppelt sich alle zwei Jahre. Die Algorithmen verbessern sich schneller. Und seit Januar 2026 verbessert sich die KI zunehmend selbst.
Die Internationale Atomenergie-Organisation (IAEA) wurde 1957 gegründet, um die zivile Nutzung der Kernenergie zu fördern und gleichzeitig die Verbreitung von Atomwaffen zu verhindern. Das Modell basiert auf drei Säulen [4]:
Eine Internationale KI-Aufsichtsbehörde könnte nach demselben Muster funktionieren:
| IAEA | KI-Aufsicht |
|---|---|
| Nukleares Material | Rechenkapazität über Schwellenwert |
| Inspektionen von Anlagen | Audits von Trainingsläufen |
| Safeguards gegen Waffenentwicklung | Sicherheitstests vor Deployment |
| Berichtspflichten | Transparenz über Fähigkeiten und Risiken |
OpenAI wurde 2015 als gemeinnützige Organisation gegründet -- mit dem erklärten Ziel, AGI "zum Wohl der gesamten Menschheit" zu entwickeln. Zehn Jahre später ist OpenAI ein gewinnorientiertes Unternehmen mit einer Bewertung von über 150 Milliarden Dollar [5]. Die Geschichte zeigt: Selbstverpflichtungen halten nicht stand, wenn Milliarden auf dem Spiel stehen.
Schweizer Initiative: Die Schweiz bringt in der UN-Generalversammlung einen Vorschlag für eine internationale KI-Aufsichtsbehörde ein.
Sitz in Genf: Die Behörde sollte ihren Sitz in Genf haben -- neben IKRK, WHO und WTO.
Schwellenwert: Jedes KI-System, das mit mehr als einer definierten Rechenkapazität (z.B. 10^26 FLOP) trainiert wird, unterliegt der Aufsicht.
Sicherheitstests: Vor der Veröffentlichung eines Frontier-Modells müssen unabhängige Red-Team-Tests durchgeführt und die Ergebnisse veröffentlicht werden.
Demokratische Legitimation: Die Aufsichtsbehörde berichtet einem Gremium aus gewählten Vertretern, nicht nur aus Regierungsdelegierten.
Die grösste Herausforderung ist geopolitisch: Die USA und China -- die beiden führenden KI-Nationen -- haben wenig Anreiz, sich einer internationalen Kontrolle zu unterwerfen. Aber genau das galt auch für die Nukleartechnologie in den 1950er Jahren. Die IAEA entstand trotzdem -- nicht weil die Grossmächte kooperativ waren, sondern weil die Alternative (unkontrollierte Proliferation) für alle schlimmer war [6].
Die Schweizer Neutralität ist in diesem Kontext kein Nachteil, sondern ein Trumpf. Ein neutrales Land, das selbst keine AGI entwickelt, aber exzellente Forschung betreibt (ETH, EPFL, IDSIA), ist der ideale Gastgeber für eine internationale Aufsichtsbehörde.
[1] Bostrom, Nick: Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014.
[2] Altman, Sam: Öffentliche Aussagen zur AGI-Timeline, 2024. Diverse Interviews.
[3] Amodei, Dario: Machines of Loving Grace. Anthropic Blog, Oktober 2024.
[4] IAEA: Statute of the International Atomic Energy Agency, 1957.
[5] Financial Times, Wall Street Journal: Berichte zur OpenAI-Bewertung, 2024/2025.