Qui contrôle l'algorithme contrôle l'opinion. Et qui contrôle l'opinion contrôle la démocratie.
Les algorithmes des réseaux sociaux décident quelles informations les citoyennes et citoyens voient -- et lesquelles non. Un algorithme qui maximise l'engagement privilégie la polarisation. Un algorithme qui personnalise les nouvelles crée des bulles de filtrage. Un algorithme qui priorise le contenu payant érode le journalisme indépendant [1].
En Suisse, la démocratie directe repose sur des citoyens informés. Quand les algorithmes décident de l'information, ils décident indirectement de la démocratie.
Tous les systèmes d'IA qui priorisent, classent ou filtrent des contenus dans l'espace d'information public doivent divulguer leurs principes de décision :
Pas le code source (secret commercial), mais les règles du jeu.
L'État ne doit jamais intervenir dans les algorithmes pour influencer l'opinion publique. Pas pour la « lutte contre la désinformation ». Pas pour la « sécurité nationale ». Pas pour la « protection de la jeunesse ». La censure étatique, qu'elle soit manuelle ou algorithmique, est incompatible avec une démocratie libre [2].
Chaque personne affectée par une décision algorithmique (refus de crédit, refus de candidature, priorisation de contenu) a le droit de recevoir une explication compréhensible des critères de décision.
L'EU AI Act impose déjà des obligations de transparence pour les systèmes d'IA à haut risque [3]. La Suisse peut s'en inspirer -- mais aller plus loin :
| Mesure | Délai |
|---|---|
| Obligation de divulgation pour les plateformes >1 mio d'utilisateurs CH | 2027 |
| Droit à l'explication dans le code de procédure administrative | 2028 |
| Article constitutionnel interdisant les interventions étatiques dans les algorithmes | Votation populaire |
| Autorité de surveillance indépendante (« Préposé aux algorithmes ») | 2029 |
[1] Pariser, Eli : The Filter Bubble. Penguin, 2011.
[2] Mill, John Stuart : On Liberty. 1859.
[3] Union européenne : Règlement (UE) 2024/1689 (AI Act). Août 2024.