Previsione: Gli scenari apocalittici -- Terminator, Skynet -- non si avvereranno. Quello che avverrà è più sottile e più inquietante: l'IA ci mostrerà chi siamo.
La paura dell'«IA malvagia» è un'eredità di Hollywood. Il pericolo reale è più banale e perciò più difficile da combattere: l'IA è un'amplificazione delle decisioni umane, dei dati umani, dei valori umani.
Quando l'IA discrimina, è perché le persone che l'hanno addestrata discriminavano. Quando l'IA concentra il potere, è perché gli esseri umani volevano concentrare il potere e l'IA era lo strumento per farlo. Lo specchio non mente. Ma non tutti vogliono guardarci dentro.
I sistemi di IA imparano da dati prodotti dagli esseri umani. Questi dati riflettono disuguaglianze storiche:
Shoshana Zuboff ha descritto nel 2019 in The Age of Surveillance Capitalism: le grandi aziende tecnologiche estraggono il comportamento umano come materia prima per produrre prodotti predittivi scambiati sui mercati comportamentali [3].
Google non sa solo cosa cerchi. Google sa cosa farai dopo. Facebook non sa solo cosa ti piace. Facebook sa come ti senti, prima che tu stesso lo sappia. E con l'IA questa capacità predittiva diventa esponenzialmente più potente.
Il mondo nuovo di Aldous Huxley (1932) è la profezia più precisa rispetto a 1984 di Orwell [4]. La distopia di Huxley non funziona attraverso l'oppressione, ma attraverso la soddisfazione:
Novant'anni dopo la sua pubblicazione, Il mondo nuovo si legge come un manuale per ciò che sta arrivando.
La Cina ha costruito il prototipo. Il sistema di credito sociale, testato dal 2014, valuta il comportamento di 1,4 miliardi di persone. Fino al 2023 sono stati negati oltre 26 milioni di biglietti aerei e 6 milioni di biglietti ferroviari a causa di punteggi bassi [5]. Il sistema funziona non nonostante, ma a causa della sua invisibilità: non c'è un funzionario alla porta. C'è un algoritmo che decide silenziosamente.
La domanda decisiva per il 2050 non è: «Cosa fa l'IA con noi?» La domanda è: «Cosa facciamo con la conoscenza che l'IA ci dà su noi stessi?»
La Svizzera con la revisione della legge sulla protezione dei dati (nLPD, in vigore dal settembre 2023) ha fatto un primo passo. Ma la protezione dei dati da sola non basta. Serve la trasparenza degli algoritmi: tutti i sistemi di IA che nello spazio informativo pubblico danno priorità, classificano o filtrano contenuti devono rendere noti i loro criteri.
L'informatica è stata a lungo intesa come materia tecnica. È una materia profondamente umana. L'IA è lo specchio più onesto che l'umanità abbia mai costruito. La domanda è se avremo il coraggio di guardarci dentro -- e di cambiare ciò che vediamo.
[1] Reuters: Amazon scraps secret AI recruiting tool that showed bias against women. 10 ottobre 2018.
[2] Angwin, Julia et al.: Machine Bias: There's software used across the country to predict future criminals. And it's biased against blacks. ProPublica, 23 maggio 2016.
[3] Zuboff, Shoshana: The Age of Surveillance Capitalism. PublicAffairs, 2019.
[4] Huxley, Aldous: Brave New World. Chatto & Windus, 1932.
[5] National Public Credit Information Center (China): Credit Report 2023. Pechino, 2024.