di Stefano Pezzola
Roberto Battiston è nato a Trento nel 1956.
Si è laureato in Fisica alla Scuola Normale di Pisa e dottorato all’Università di Parigi IX, Orsay.
Dal 1992 sono Professore ordinario di Fisica Sperimentale presso il Dipartimento di Fisica dell’Università di Trento.
È stato presidente dell’Agenzia Spaziale Italiana dal maggio 2014 al novembre 2018.
Fisico sperimentale, specializzato nel campo della fisica fondamentale e delle particelle elementari, è uno dei maggiori esperti di raggi cosmici.
All’attività di ricerca affianco quella di divulgazione scientifica, con libri, interviste e la partecipazione ad eventi.
Per l’ex presidente dell’Agenzia spaziale italiana l’algoritmo “è troppo invasivo e oscuro per essere lasciato alla sola volontà degli sviluppatori. Sembra un amico di cui ti puoi fidare, ma è capace di portarti seriamente fuori strada“.
I sistemi di IA con intelligenza umana competitiva possono comportare rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di intelligenza artificiale.
Come affermato nei principi di IA di Asilomar, ampiamente approvati, l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate.
Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo, anche se gli ultimi mesi hanno visto i laboratori di intelligenza artificiale bloccati in una corsa fuori controllo per sviluppare e distribuire menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – può capire, prevedere o controllare in modo affidabile.
I sistemi di IA contemporanei stanno diventando competitivi per l’uomo in compiti generali e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazione di propaganda e falsità?
Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti?
Dovremmo sviluppare menti non umane che potrebbero alla fine essere più numerose, superarle, obsolete e sostituirci?
Dovremmo rischiare di perdere il controllo della nostra civiltà?
Tali decisioni non devono essere delegate a leader tecnologici non eletti.
Potenti sistemi di IA dovrebbero essere sviluppati solo quando siamo sicuri che i loro effetti saranno positivi e i loro rischi saranno gestibili.
Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema.
La recente dichiarazione di OpenAI sull’intelligenza artificiale generale, afferma che “Ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e per gli sforzi più avanzati concordare di limitare il tasso di crescita del calcolo utilizzato per la creazione di nuovi modelli”.
Siamo d’accordo. Questo punto è ora.
Con la lettera che è possibile leggere in forma integrale al seguente link:
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
il prof. Battiston unendosi all’appello firmato da Elon Musk ed altre 10 mila personalità del mondo scientifici ed imprenditoriale, chiede a tutti i laboratori di AI di sospendere immediatamente per almeno 6 mesi l’addestramento dei sistemi di IA più potenti di GPT-4.
Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave.
Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.
La frase di Roberto Battiston, astrofisico proiettato verso il futuro, fa riflettere.
Perché l’ex presidente dell’Agenzia spaziale italiana, lo scienziato che ha contribuito a realizzare lo strumento (Ams) che dallo spazio cerca l’antimateria, tutto sembra tranne che orientato a fermare il progresso.