Ein Algorithmus, der entscheidet, welche Nachrichten 300 Millionen Menschen sehen, trifft täglich mehr politische Entscheidungen als jeder Parlamentarier.
Alle KI-Systeme, die im öffentlichen Informationsraum Inhalte priorisieren, ranken oder filtern, müssen ihre Kriterien offenlegen. Staatliche Eingriffe in diese Algorithmen sind verfassungsrechtlich zu verbieten.
Soziale Medien und Suchmaschinen bestimmen, welche Informationen Millionen von Menschen sehen -- und welche nicht. Die Algorithmen hinter diesen Systemen sind intransparent. Meta, Google und TikTok veröffentlichen keine Details darüber, nach welchen Kriterien Inhalte priorisiert, herabgestuft oder unterdrückt werden [1].
In der Schweiz nutzen über 70 Prozent der Bevölkerung soziale Medien als Informationsquelle [2]. Wenn ein Algorithmus entscheidet, ob ein Zeitungsartikel über eine Parlamentsdebatte angezeigt wird oder nicht, greift er tiefer in die demokratische Meinungsbildung ein als jede Zeitung es je konnte. Anders als ein menschlicher Chefredaktor ist der Algorithmus niemandem Rechenschaft schuldig.
Der EU AI Act klassifiziert KI-Systeme, die die öffentliche Meinungsbildung beeinflussen, als Hochrisiko-Systeme. Sie unterliegen Transparenzpflichten: Anbieter müssen offenlegen, dass ein KI-System eingesetzt wird, und die Grundlogik der Entscheidungsfindung dokumentieren [3]. Allerdings bleiben Schlupflöcher: Die konkreten Gewichtungsfaktoren der Algorithmen müssen nicht veröffentlicht werden.
Der Digital Services Act (DSA) der EU verlangt zusätzlich von sehr grossen Plattformen (über 45 Millionen Nutzer) jährliche Risikobewertungen und unabhängige Audits ihrer Empfehlungssysteme [4].
Transparenz bedeutet nicht nur Offenlegung durch Unternehmen. Sie bedeutet auch Schutz vor dem Staat. Wenn Regierungen Algorithmen beeinflussen können -- etwa um bestimmte Inhalte zu fördern oder zu unterdrücken --, entsteht eine Form der Zensur, die schwerer zu erkennen ist als jede klassische Pressekontrolle.
Die Schweiz hat eine lange Tradition der Medienfreiheit, verankert in Artikel 17 der Bundesverfassung [5]. Diese Garantie muss auf algorithmische Informationsfilterung ausgedehnt werden. Ein Verfassungszusatz, der staatliche Eingriffe in Ranking-Algorithmen explizit verbietet, wäre das Schweizer Äquivalent zum ersten Zusatzartikel der US-Verfassung -- angepasst an das digitale Zeitalter.
Offenlegungspflicht: KI-Systeme, die Inhalte für mehr als 100'000 Nutzer priorisieren, müssen ihre Ranking-Kriterien in verständlicher Form veröffentlichen.
unabhängige Audits: jährliche Prüfung durch eine vom EDOEB (Eidgenössischer Datenschutz- und Öffentlichkeitsbeauftragter) benannte Stelle.
Verfassungsrechtliches Verbot: Staatliche Stellen dürfen weder direkt noch indirekt auf die algorithmische Priorisierung von Inhalten Einfluss nehmen.
Nutzerkontrolle: Jeder Nutzer muss die Möglichkeit haben, den algorithmischen Feed abzuschalten und eine chronologische Darstellung zu wählen.
Die Schweiz steht im AI Preparedness Index des IWF auf Rang 3 von 186 Ländern [6]. Diese Position verpflichtet. Ein Land, das bei der KI-Bereitschaft zur Weltspitze gehört, muss auch bei der KI-Governance vorangehen.
Das revidierte Schweizer Datenschutzgesetz (revDSG), in Kraft seit September 2023, stärkt bereits die Rechte Betroffener bei automatisierten Einzelentscheidungen [7]. Die Algorithmenstransparenz wäre die logische Erweiterung: nicht nur Schutz des Individuums, sondern Schutz der demokratischen Öffentlichkeit.
[1] Zuboff, Shoshana: The Age of Surveillance Capitalism. PublicAffairs, 2019.
[2] Bundesamt für Statistik: Internetnutzung und Social Media in der Schweiz, 2024.
[3] EU AI Act, Verordnung EU 2024/1689, Artikel 13 (Transparenzpflichten), Artikel 52.
[4] Digital Services Act (DSA), Verordnung EU 2022/2065, Artikel 34--35.
[5] Bundesverfassung der Schweizerischen Eidgenossenschaft, Art. 17 (Medienfreiheit).
[6] IWF, AI Preparedness Index, 2024.
[7] Schweizer Datenschutzgesetz (revDSG), in Kraft seit 1. September 2023.