Mentre Stoccolma premia le scoperte nell’IA, i suoi pionieri chiedono regole urgenti per governarla
Il 2024 segna un momento storico per l’intelligenza artificiale nel contesto dei Premi Nobel: per la prima volta, il comitato del Nobel ha premiato esplicitamente i contributi fondamentali nel campo dell’IA, assegnando due importanti riconoscimenti:
- Il Premio Nobel per la Fisica a Geoffrey Hinton e John Hopfield “per le scoperte e le invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali”
- Il Premio Nobel per la Chimica a Demis Hassabis, John Jumper e David Baker per lo sviluppo di modelli di IA capace di predire la struttura delle proteine
È significativo notare come i principali vincitori, Hinton e Hassabis, condividano una preoccupazione comune: i potenziali rischi dell’intelligenza artificiale. Questa apparente contraddizione – essere pionieri di una tecnologia di cui temono gli sviluppi – merita un’analisi approfondita.
Geoffrey Hinton: Il “Padrino” dell’IA Lancia l’Allarme
Geoffrey Hinton, universalmente riconosciuto come il “padrino dell’IA”, ha espresso preoccupazioni particolarmente acute. La sua celebre affermazione: “A volte penso che sia come se gli alieni fossero atterrati e le persone non se ne fossero accorte perché parlano un ottimo inglese” riflette la sua convinzione che i rischi dell’IA siano già presenti ma largamente sottovalutati. Nel 2023, Hinton ha preso la decisione significativa di lasciare Google dopo oltre un decennio di collaborazione, proprio per poter parlare liberamente dei rischi dell’IA.
Il CEO di Google DeepMind, Demis Hassabis, ha adottato una posizione più moderata ma ugualmente preoccupata, paragonando la serietà dei rischi dell’IA a quella della crisi climatica. La sua proposta concreta è la creazione di un organismo di supervisione simile all’IPCC per i cambiamenti climatici.
Le Proposte di Regolamentazione
Particolarmente significativo è il contributo di Hinton alla discussione sulla regolamentazione dell’IA, articolato in cinque punti fondamentali:
1. Gestione Globale
- Necessità di istituzioni nazionali e internazionali;
- Applicazione di standard contro imprudenze e abusi;
- Supervisione governativa sul modello di altri settori critici.
2. Politiche Proattive
- Misure che si adattino automaticamente ai progressi dell’IA;
- Infrastrutture flessibili basate sulle capacità raggiunte dall’IA;
- Requisiti che si modifichino in base all’evoluzione tecnologica.
3. Autorità di Regolazione Competenti
- Istituzione di organi di supervisione tecnicamente preparati;
- Valutazioni del rischio obbligatorie e rigorose;
- Capacità di risposta rapida agli sviluppi tecnologici.
4. Trasparenza Effettiva
- Accesso completo per auditor esterni;
- Monitoraggio dello sviluppo dei modelli fin dalle fasi iniziali;
- Identificazione preventiva di capacità potenzialmente pericolose.
5. Responsabilità Legale
- Accountability degli sviluppatori e provider di IA;
- Prevenzione dei danni prevedibili;
- Incentivi all’investimento nella sicurezza.
La posizione di Hinton sulla differenza tra la crisi climatica e quella dell’IA è particolarmente illuminante: “Con il cambiamento climatico, tutti sanno cosa bisogna fare. Dobbiamo smettere di bruciare carbonio. È solo una questione di volontà politica… Qui [con l’IA] abbiamo a che fare con qualcosa di cui abbiamo molta meno idea su cosa accadrà e cosa fare al riguardo.”
La sua risposta a chi gli chiede se sia pentito del suo contributo allo sviluppo dell’IA – “Mi consolo con la solita scusa: se non l’avessi fatto io, l’avrebbe fatto qualcun altro” – riflette il complesso rapporto tra innovazione scientifica e responsabilità etica.
Conclusione
I Premi Nobel 2024 non rappresentano solo un riconoscimento ai progressi nell’IA, ma anche un momento di riflessione cruciale sui suoi rischi potenziali. Il fatto che proprio i pionieri della tecnologia siano tra i più preoccupati dei suoi sviluppi dovrebbe essere un campanello d’allarme per la comunità internazionale sulla necessità di una regolamentazione efficace e tempestiva.
Immagine di copertina: D. Baker, D. Hassabis, G. Hinton