Daten, die eine Person betreffen, gehören dieser Person -- rechtlich, nicht nur moralisch.
Jede kommerzielle Nutzung personenbezogener Daten durch KI-Systeme bedarf einer aktiven, widerrufbaren Einwilligung. Verkauf ohne Zustimmung muss strafbar sein.
Die grossen KI-Modelle -- GPT-4, Gemini, Claude, Llama -- wurden mit Milliarden von Texten, Bildern und Videos trainiert. Ein erheblicher Teil dieser Trainingsdaten stammt aus dem Internet: Forenbeiträge, Blogposts, Fotos, Kommentare -- geschrieben von Menschen, die nie zugestimmt haben, dass ihre Worte einem Sprachmodell als Trainingsmaterial dienen [1].
Shoshana Zuboff hat dieses Modell als Überwachungskapitalismus beschrieben: Menschliche Erfahrung wird als kostenloser Rohstoff extrahiert und in Verhaltensprognosen verwandelt, die auf Vorhersagemärkten gehandelt werden [2].
Das Ausmass der kommerziellen Datensammlung ist den meisten Menschen nicht bewusst. Unternehmen erfassen systematisch:
Aus diesen Einzeldaten entstehen detaillierte Nutzerprofile: Persönlichkeit, politische Einstellung, Gesundheitszustand, finanzielle Situation, persönliche Schwächen. Die betroffenen Personen wissen in der Regel nichts davon -- oder haben "zugestimmt", indem sie ein Cookie-Banner weggeklickt haben.
Das Ziel ist kommerzieller Profit: gezielte Werbung, dynamische Preisgestaltung (verschiedene Preise für verschiedene Nutzer), und der Verkauf von Verhaltensprognosen an Dritte.
Die gleichen Profile, die für Werbezwecke erstellt werden, eignen sich hervorragend für politische Manipulation. KI-basiertes Mikro-Targeting ermöglicht es, Wählerinnen und Wähler anhand spezifischer Schwachstellen -- finanzielle Ängste, Misstrauen gegenüber Institutionen, gesundheitliche Sorgen -- mit massgeschneiderten Botschaften zu erreichen.
Die Folgen sind gravierend:
Der Cambridge-Analytica-Skandal 2018 hat gezeigt, was mit den Facebook-Profilen von 87 Millionen Menschen möglich war [9]. Seither sind die Methoden nicht verschwunden -- sie sind raffinierter geworden.
Datenschutz ist kein rein persönliches Problem. Wer detaillierte Profile von Millionen Menschen besitzt, hat Macht über diese Menschen -- und damit über die Demokratie. (Siehe auch: Risiken für die Demokratie)
Es besteht ein grundlegender Interessenkonflikt: KI-Unternehmen versprechen Datenschutz, verdienen aber gleichzeitig Geld durch die Nutzung genau dieser Daten. Selbstregulierung funktioniert nicht, wenn das Geschäftsmodell auf der Verletzung der Privatsphäre basiert.
Wirksame gesetzliche Schutzmassnahmen fehlen weitgehend -- nicht weil sie technisch unmöglich wären, sondern weil die Tech-Industrie über erheblichen politischen Einfluss verfügt. In den USA haben Technologieunternehmen 2024 über 100 Millionen Dollar für Lobby-Arbeit ausgegeben [10].
Angesichts des massiven politischen Einflusses der Tech-Industrie, die Regulierung aktiv blockiert, wird ein Moratorium auf neue Rechenzentren als pragmatische Option diskutiert. Die Logik: Wenn die Industrie schneller wächst als die Regulierung, muss das Wachstum verlangsamt werden, bis die demokratischen Institutionen aufgeholt haben.
Ein solches Moratorium würde:
Das revidierte Schweizer Datenschutzgesetz (revDSG), in Kraft seit 1. September 2023, stärkt die Rechte Betroffener. Es verlangt Transparenz, Zweckbindung und Verhältnismässigkeit [3]. Allerdings:
Der Paradigmenwechsel: Daten, die eine Person identifizieren oder betreffen, sind nicht nur schutzwürdig -- sie gehören dieser Person. So wie ein Haus dem Eigentümer gehört, so gehören biometrische Daten, Gesundheitsdaten, Bewegungsprofile und digitale Spuren dem Menschen, der sie erzeugt.
Nicht mehr "Opt-out" (Sie müssen aktiv widersprechen), sondern "Opt-in" (Sie müssen aktiv zustimmen). Jede kommerzielle Nutzung erfordert eine separate, verständliche Einwilligung -- nicht versteckt in 40-seitigen AGB, sondern in klarer Sprache, mit konkreter Angabe des Verwendungszwecks.
Wenn jemand ohne Ihre Zustimmung Ihr Haus verkauft, ist das Betrug. Wenn jemand ohne Ihre Zustimmung Ihre Daten verkauft, ist das heute... legal. Diese Asymmetrie muss enden. Der Verkauf personenbezogener Daten ohne explizite, widerrufbare Einwilligung muss als Straftatbestand im Strafgesetzbuch verankert werden.
Gesetzliches Dateneigentum: Verankerung des Eigentums an personenbezogenen Daten im ZGB (analog zum Sachenrecht).
Aktive Einwilligung: Jede kommerzielle Nutzung erfordert Opt-in. Vorausgefüllte Zustimmungen sind nichtig.
Widerrufsrecht: Einwilligungen müssen jederzeit, kostenlos und ohne Begründung widerrufbar sein.
Strafbarkeit: Verkauf oder Weitergabe personenbezogener Daten ohne Einwilligung wird im StGB als Vergehen eingestuft.
Datenportabilität: Jede Person hat das Recht, ihre Daten in maschinenlesbarem Format von jeder Plattform zu exportieren.
Recht auf Löschung aus KI-Modellen: Wenn eine Person die Einwilligung widerruft, müssen ihre Daten nachweislich aus Trainingsdatensätzen entfernt werden.
Die EU-Datenschutz-Grundverordnung (DSGVO) hat seit 2018 Standards gesetzt: Recht auf Vergessenwerden, Datenportabilität, hohe Bussen [5]. Das Schweizer revDSG ist daran angelehnt, bleibt aber in der Durchsetzung schwächer.
Der EU AI Act ergänzt: KI-Systeme müssen dokumentieren, welche Trainingsdaten verwendet wurden -- ein erster Schritt Richtung Transparenz, aber noch kein Eigentum [6].
[1] Bender, Emily et al.: On the Dangers of Stochastic Parrots. FAccT 2021.
[2] Zuboff, Shoshana: The Age of Surveillance Capitalism. PublicAffairs, 2019.
[3] Schweizer Datenschutzgesetz (revDSG), in Kraft seit 1. September 2023.
[4] EDOEB (Eidgenössischer Datenschutz- und Öffentlichkeitsbeauftragter): Tätigkeitsbericht 2023/24.
[5] EU-Datenschutz-Grundverordnung (DSGVO), Verordnung EU 2016/679.
[6] EU AI Act, Verordnung EU 2024/1689, Art. 10 (Daten und Daten-Governance).
[7] Zuboff, Shoshana: The Age of Surveillance Capitalism, Kap. 8: Rendition. PublicAffairs, 2019.
[8] Hao, Karen: How Facebook got addicted to spreading misinformation. MIT Technology Review, 2021.
[10] OpenSecrets: Lobbying Spending Database, Technology Sector, 2024.