Prognosa: Ina vaira Artificial General Intelligence -- in sistem ch'operescha en tuttas domenas cognitivas sin nivel uman u suruman -- vegn ad existir fin il 2035. Ella na vegn betg ad esser accessibla publicamain.
AGI (Artificial General Intelligence) designescha in sistem d'IA che n'è betg limità ad ina domena -- sco schah, generaziun da text u analisa da maletgs -- mabain ch'operescha en tuttas incumbensas cognitivas sin nivel uman u suruman. La transiziun dals models da lingua actuals a l'AGI è qualitativa: Ils models actuals èn spezialists cun vasta savida. L'AGI fiss in generalist cun profunda chapientscha.
Trais sviluppadads convergeschan:
Prestaziun da calculaziun: Dublaziun mintga dus onns (la lescha da Moore e ses successurs). La hardware per l'AGI n'è betg pli ina dumonda teoretica, mabain ina dumonda industriala [1].
Algoritmus: L'architectura Transformer (2017) ha mess il fundament [2]. Dapi lura sa meglioran las architecturas en ciclis adina pli curts. Dapi schaner 2026 sa megliorescha l'IA sezza -- ella rescriva ses agen code, al testa, butta davent quai che na funcziuna betg.
Datas: L'entira savida digitalisada da l'umanitad stat a disposiziun sco material da trenament. Datas sinteticas ladian quest pool en l'infinit.
Prognosa: L'AGI è ina dumonda dal temp, betg dal sche. La dumonda è mo, sche democrazias u autocrazias gudognan la cursa.
La pussanza ch'emerge da l'AGI vegn a midar geopoliticamain, tge naziun u tge concern che la posseda sco emprim. Tgi che controlla l'AGI, controlla potenzialmain:
Nick Bostrom ha avertì 2014 en Superintelligence: Ina IA superintelligenta, l'unic intent da la quala è da producir quam blers clips da biro, transformescha il planet entir en clips da biro. Betg ord malizia. Ord adempliment da l'incumbensa [3].
Stuart Russell ha respundì 2019 en Human Compatible: Il problem n'è betg l'IA. Il problem è che nus dain a l'IA finamiras fixas. Empè duai la maschina esser fundamentalmain insegira davart giavischs umans e pronta da sa laschar deactivar da tut temp. Russell numna quai provably beneficial AI [4].
Per la Svizra è quai la dumonda geopolitica la pli existenziala dapi la Guerra fraida. La neutralitad svizra, en il 20avel tschientaner ina barricada protectiva, pudess en l'era da l'AGI degenerar en l'insignificanza.
Ma la situaziun da partenza è meglra che suppunì:
Sistems cun intelligenza generala ston esser suttamess ad in'autoritad internaziunala da surveglianza -- sumeglianta a l'AIEA per la tecnologia nucleara. Nagina AGI senza legitimaziun democratica e controlla internaziunala. Genevra, sco sedia da numerusas organisaziuns internaziunalas, fiss il lieu natiral per ina tala autoritad.
La dumonda "Tge fa l'IA cun nus?" è la dumonda fallada. La gista è: "Tgi controlla l'IA -- e en l'interess da tgi?"
[1] Sevilla, Jaime et al.: Compute Trends Across Three Eras of Machine Learning. arXiv:2202.05924, 2022.
[2] Vaswani, Ashish et al.: Attention Is All You Need. NeurIPS, 2017.
[3] Bostrom, Nick: Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014.
[4] Russell, Stuart: Human Compatible: Artificial Intelligence and the Problem of Control. Viking, 2019.
[5] Hochreiter, Sepp / Schmidhuber, Jürgen: Long Short-Term Memory. Neural Computation 9(8), 1997.
[6] FMI (Fond monetar internaziunal): AI Preparedness Index. 2024.