L'IAG (intelligenza artificiale generale) è considerata il "santo graal" tecnologico da aziende come OpenAI o DeepSeek. Presentata come un'opportunità per l'umanità, solleva anche preoccupazioni sui suoi potenziali rischi per la società, in particolare la perdita di controllo. In un documento di 145 pagine pubblicato di recente, Google DeepMind propone un approccio per mitigare questi rischi, ricordando che per raggiungere questo obiettivo, sono indispensabili pianificazione, preparazione e collaborazione proattiva.
I pareri degli esperti sui danni che l'IAG potrebbe causare all'umanità sono molto divergenti. Le posizioni di Yoshua Bengio, Geoffrey Hinton e Yann LeCun, vincitori del Premio Turing 2018, illustrano bene questa spaccatura. Geoffrey Hinton, dopo anni trascorsi in Google, ha scelto nel 2023 di lasciare il suo incarico per esprimersi liberamente sui pericoli dell'IA. Teme in particolare la capacità dei modelli avanzati di disinformare, manipolare o sfuggire al controllo umano. Allo stesso modo, Yoshua Bengio ha preso posizione per una pausa temporanea dello sviluppo dell'IAG, co-firmando la lettera del Future of Life Institute. Entrambi sostengono una forte governance, sorveglianza pubblica e protocolli di sicurezza prima di superare soglie critiche.
Yann LeCun, oggi Chief AI Scientist presso Meta, adotta una posizione più ottimista e tecnica. Secondo lui, l'IAG è un obiettivo lontano: i modelli attuali, sebbene potenti, non hanno né comprensione del mondo né una vera capacità di agentività. Promuovendo il proseguimento della ricerca aperta pur insistendo sul carattere esplorativo dell'IA attuale, ritiene che le paure sull'estinzione dell'umanità o sulla perdita di controllo siano premature, se non infondate.
Al contrario, per Shane Legg, co-fondatore e scienziato capo dell'IAG presso Google DeepMind, in assenza di controllo, l'IAG potrebbe comportare rischi esistenziali per l'umanità. Come i suoi co-autori dell'articolo "An Approach to Technical AGI Safety and Security", ritiene che l'IAG dovrebbe essere raggiunta prima della fine di questo decennio.
In questo documento, esplorano quattro principali aree di rischio:
- L'uso improprio: Quando attori malintenzionati sfruttano l'IAG per scopi distruttivi;
- Il disallineamento: Quando l'IAG agisce in modo contrario alle intenzioni dei suoi creatori;
- Gli errori: Quando l'IAG prende decisioni involontariamente dannose;
- I rischi strutturali: Le dinamiche multi-agente che possono portare a conseguenze impreviste.
Si concentrano principalmente sulla gestione dei rischi di uso improprio e disallineamento che costituiscono le minacce più dirette e urgenti.
Strategie di prevenzione dei rischi
Per prevenire l'uso improprio, DeepMind propone una serie di misure di sicurezza e controllo degli accessi, volte a impedire l'accesso alle capacità pericolose. Tra queste misure, ci sono:
- L'identificazione proattiva delle capacità ad alto rischio;
- L'implementazione di restrizioni severe per limitare l'accesso a queste capacità;
- La sorveglianza continua e strategie di sicurezza rafforzate dei modelli.
Per quanto riguarda il disallineamento, l'approccio si basa su due livelli di difesa:
- Sicurezza a livello di modello: Amplificazione della supervisione e addestramento avanzato per garantire che l'IAG rimanga allineata alle intenzioni umane;
- Sicurezza a livello di sistema: Implementazione di meccanismi di controllo e sorveglianza per rilevare e correggere qualsiasi deriva potenzialmente pericolosa.
Strumenti come l'interpretabilità dei modelli e la stima delle incertezze sono inoltre raccomandati per migliorare l'efficacia delle misure di sicurezza.
Il team di DeepMind spera che la comunità scientifica si unisca a loro per proseguire i lavori al fine di garantire un accesso sicuro e controllato ai benefici potenziali dell'IAG.
Per capire meglio
Quale quadro normativo potrebbe essere implementato per regolare l'uso dell'IAG?
Un quadro normativo per l'IAG potrebbe includere requisiti di trasparenza rigorosi, protocolli di supervisione indipendente e responsabilità chiara per i creatori di IA per prevenire abusi e disallineamenti.