La démocratie directe suisse repose sur un principe : le peuple décide. Mais que se passe-t-il quand un algorithme prend de meilleures décisions -- plus rapides, mieux informées, moins biaisées ? [1]
Ce n'est pas une question théorique. L'IA analyse déjà des projets de loi plus vite que des juristes, évalue des conséquences économiques avec plus de données que le Conseil fédéral, et identifie des incohérences dans des textes légaux que des commissions entières manquent.
Le paradoxe : plus l'IA est performante, plus la tentation est grande de lui déléguer les décisions. Et plus on lui délègue, moins on exerce la capacité de décider soi-même.
Un discours vidéo d'un conseiller fédéral, parfaitement falsifié par l'IA, publié trois jours avant une votation. Ce scénario n'est plus de la science-fiction -- la technologie existe et est accessible [2].
Les algorithmes des réseaux sociaux montrent à chacun ce qu'il veut voir. Le résultat : deux citoyens de la même commune vivent dans des réalités informationnelles différentes. Le débat démocratique, qui nécessite un socle commun de faits, devient impossible [3].
Des armées de comptes générés par l'IA peuvent simuler un consensus populaire qui n'existe pas. Sur Twitter/X, on estime que 15--20% des comptes actifs sont des bots [4].
La Chine a montré où mène la combinaison de surveillance de masse et d'IA. Le système de crédit social évalue le comportement de 1,4 milliard de personnes. Plus de 26 millions de billets d'avion refusés pour score insuffisant [5].
La Suisse est aux antipodes de la Chine. Mais les outils sont les mêmes. La différence est politique, pas technologique.
La complexité croissante des sujets de votation est un défi pour la démocratie directe. L'IA pourrait aider -- par des résumés intelligents, des analyses d'impact, des vérifications de faits. Mais elle pourrait aussi infantiliser : si l'IA dit comment voter, pourquoi encore réfléchir ?
Le droit de ne pas comprendre -- et de voter quand même -- est un pilier de la démocratie. L'IA ne doit pas l'abolir. Elle doit aider ceux qui veulent comprendre, sans remplacer ceux qui décident.
[1] Helbing, Dirk : Towards Digital Enlightenment. Springer, 2019.
[2] Chesney, Robert / Citron, Danielle : Deep Fakes: A Looming Challenge. 107 California Law Review, 2019.
[3] Pariser, Eli : The Filter Bubble. Penguin, 2011.
[4] Varol, Onur et al. : Online Human-Bot Interactions. AAAI, 2017.
[5] National Public Credit Information Center (Chine) : Credit Report 2023.