Previsione: Un'autentica Intelligenza Artificiale Generale -- un sistema che opera in tutti i domini cognitivi a livello umano o sovrumano -- esisterà entro il 2035. Non sarà accessibile al pubblico.
AGI (Artificial General Intelligence) designa un sistema di IA che non è limitato a un singolo dominio -- come gli scacchi, la generazione di testo o l'analisi di immagini -- ma opera in tutti i compiti cognitivi a livello umano o sovrumano. Il passaggio dagli attuali modelli linguistici all'AGI è qualitativo: i modelli attuali sono specialisti con ampie conoscenze. L'AGI sarebbe un generalista con comprensione profonda.
Tre sviluppi convergono:
Potenza di calcolo: raddoppio ogni due anni (legge di Moore e i suoi successori). L'hardware per l'AGI non è più una questione teorica, ma industriale [1].
Algoritmi: l'architettura Transformer (2017) ha posto le basi [2]. Da allora le architetture migliorano in cicli sempre più brevi. Dal gennaio 2026 l'IA migliora sé stessa -- riscrive il proprio codice, lo testa, scarta ciò che non funziona.
Dati: l'intero sapere digitalizzato dell'umanità è disponibile come materiale di addestramento. I dati sintetici ampliano questo pool all'infinito.
Previsione: L'AGI è una questione di tempo, non di se. La domanda è solo se saranno le democrazie o le autocrazie a vincere la corsa.
Il potere che emerge dall'AGI cambierà geopoliticamente quale nazione o quale gruppo la padroneggerà per prima. Chi controlla l'AGI controlla potenzialmente:
Nick Bostrom avvertì nel 2014 in Superintelligence: una IA superintelligente il cui unico obiettivo è produrre quante più graffette possibili trasforma l'intero pianeta in graffette. Non per malvagità. Per senso del dovere [3].
Stuart Russell rispose nel 2019 in Human Compatible: il problema non è l'IA. Il problema è che diamo all'IA obiettivi fissi. Piuttosto la macchina dovrebbe essere fondamentalmente incerta sui desideri umani e in ogni momento pronta a lasciarsi spegnere. Russell la chiama provably beneficial AI [4].
Per la Svizzera questa è la questione geopolitica più esistenziale dalla Guerra Fredda. La neutralità svizzera, nel XX secolo un muro protettivo, potrebbe nell'era dell'AGI degenerare nell'irrilevanza.
Ma la situazione di partenza è migliore del previsto:
I sistemi con intelligenza generale devono essere sottoposti a un'autorità di vigilanza internazionale -- simile all'AIEA per la tecnologia nucleare. Nessuna AGI senza legittimazione democratica e controllo internazionale. Ginevra, sede di numerose organizzazioni internazionali, sarebbe la sede naturale per una tale autorità.
La domanda "Cosa fa l'IA con noi?" è la domanda sbagliata. Quella giusta è: "Chi controlla l'IA -- e nell'interesse di chi?"
[1] Sevilla, Jaime et al.: Compute Trends Across Three Eras of Machine Learning. arXiv:2202.05924, 2022.
[2] Vaswani, Ashish et al.: Attention Is All You Need. NeurIPS, 2017.
[3] Bostrom, Nick: Superintelligence: Paths, Dangers, Strategies. Oxford University Press, 2014.
[4] Russell, Stuart: Human Compatible: Artificial Intelligence and the Problem of Control. Viking, 2019.
[5] Hochreiter, Sepp / Schmidhuber, Jürgen: Long Short-Term Memory. Neural Computation 9(8), 1997.
[6] FMI (Fondo Monetario Internazionale): AI Preparedness Index. 2024.