Prognosa: Ils scenaris apocaliptics -- Terminator, Skynet -- na vegnan betg ad arrivar. Quai che vegn ad arrivar è pli subtil e pli inquietant: L'IA vegn ad ans mussar tgi che nus essan.
La tema da la "mava IA" è ina ierta da Hollywood. Il privel real è pli banal e perquai pli grev da cumbatter: L'IA è in'amplificaziun da decisiuns umanas, da datas umanas, da valurs umanas.
Sche l'IA discriminescha, lura perquai che ils umans ch'han trenà ella han discriminà. Sche l'IA concentrescha pussanza, lura perquai che umans han vulì concentrar pussanza e l'IA era l'instrument per quai. Il spievel na mentia betg. Ma betg mintgin vul guardar en el.
Sistems d'IA emprendan da datas ch'umans han generà. Questas datas reflecteschan inegualitads istoricas:
Shoshana Zuboff ha descrit 2019 en The Age of Surveillance Capitalism: Las grondas interpresas tecnologicas extraheschan il cumportament uman sco materia prima per producir products da predicziun che vegnan commercialisads sin martgads dal cumportament [3].
Google na sa betg mo tge che ti tschertgas. Google sa tge che ti fas sco proxim. Facebook na sa betg mo tge che tai plai. Facebook sa co che ti ta sentas, avant che ti sezzas al sappias. E cun l'IA daventa questa abilitad da predicziun exponenzialmain pli potenta.
Brave New World (1932) d'Aldous Huxley è la profezia pli precisa che 1984 d'Orwell [4]. La distopia da Huxley na funcziuna betg tras suppressiun, mabain tras satisfacziun:
Nonanta onns suenter sia publicaziun sa legia Brave New World sco in manual per quai che vegn.
La China ha construì il prototip. Il sistem da credit social, testà dapi il 2014, valitescha il cumportament da 1,4 milliardas umans. Fin il 2023 èn vegnids refusads sur 26 milliuns bilgliets d'aviun e 6 milliuns bilgliets da tren pervia da bass scores [5]. Il sistem funcziuna betg malgrà, mabain pervia da si'invisibladad: I na dat nagin funcziunari a l'isch. I dat in algoritmus che decida quaidamain.
La dumonda decisiva per il 2050 n'è betg: "Tge fa l'IA cun nus?" La dumonda è: "Tge faschain nus cun la savida che l'IA ans dat davart nus sezs?"
La Svizra ha fatg cun la lescha revedida da protecziun da datas (revDSG, dapi settember 2023) in emprim pass. Ma la protecziun da datas suletta na basta betg. I dovra transparenza dals algoritmus: Tut ils sistems d'IA che prioritiseschan, classifitgeschan u filtreschan cuntegns en il spazi d'infurmaziun public ston publitgar lur criteris.
L'informatica è vegnida chapiada ditg sco in rom tecnic. Ella è in rom profundamain uman. L'IA è il spievel il pli onest che l'umanitad ha mai construì. La dumonda è, sche nus avain il curagi da guardar enen -- e da midar quai che nus vesain.
[1] Reuters: Amazon scraps secret AI recruiting tool that showed bias against women. 10. october 2018.
[2] Angwin, Julia et al.: Machine Bias: There's software used across the country to predict future criminals. And it's biased against blacks. ProPublica, 23. matg 2016.
[3] Zuboff, Shoshana: The Age of Surveillance Capitalism. PublicAffairs, 2019.
[4] Huxley, Aldous: Brave New World. Chatto & Windus, 1932.
[5] National Public Credit Information Center (China): Credit Report 2023. Peking, 2024.