di Alessandra Schofield
Nei giorni scorsi ha avuto grande risonanza la lettera aperta – che è al contempo una petizione – scritta e sottoscritta dagli esponenti di vertice dei maggiori Big Tech che chiede una pausa nello sviluppo e nell’addestramento dei sistemi di Intelligenza Artificiale.
Fa riflettere il fatto che l’allarme provenga proprio da chi sviluppa tecnologie, strumenti e prodotti basati sulla IA. Tra i primi firmatari troviamo infatti Elon Musk, è a firma di Google, Microsoft, Amazon – per citarne solo alcuni – oltre che una miriade di esperti, scienziati e tecnici del settore.
Secondo i promotori della petizione diretta a tutti i soggetti che sviluppano sistemi analoghi – per fare un esempio – alla ChatGPT di OpenAI di cui tanto si sta parlando, l’Intelligenza Artificiale in grado di porsi in competizione per capacità con gli esseri umani può rappresentare un grosso rischio per la società e l’umanità.
Il pericolo, come sempre, non risiede nello strumento ma nell’utilizzo che ne viene fatto.
Denunciano infatti i grandi del tech che il livello attuale di progettazione e gestione di questo tipo di IA non è assolutamente adeguato in termini di attenzione. “I lab IA – leggiamo nella lettera – sono da mesi incastrati in una gara fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno – neppure i loro creatori – possono comprendere, prevedere o controllare.
Se mal pensati e mal condotti, gli attuali sistemi IA potrebbero diffondere propaganda e menzogna in tutti i canali di informazione, i lavori verrebbero automatizzati, gli esseri umani potrebbero essere resi obsoleti e sostituiti da menti non-umane più imponenti per numero e per astuzia, con il rischio di perdere il controllo sulla nostra civiltà. “Sistemi potenti di Intelligenza Artificiale dovrebbero essere sviluppati solo una volta che si sia certi che i loro effetti saranno positivi ed i loro rischi gestibili. Questa certezza deve essere ben fondata e deve aumentare proporzionalmente all’entità degli effetti potenziali del sistema” ammoniscono i sottoscrittori della lettera.
Perciò la richiesta a tutti i cosddetti lab AI è di sospendere immediatamente e per almeno 6 mesi l’addestramento dei sistemi AI più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile, ed includere tutti gli attori chiave. Qualora tale sospensione non possa essere attivata velocemente, i governi dovrebbero intervenire ed istituire una moratoria.
In questo periodo di fermo, lab AI ed esperti indipendenti dovrebbero sviluppare ed implementare congiuntamente un seti di protocolli di sicurezza condivisi per il design e lo sviluppo dell’Intelligenza Artificiale avanzata, che siano rigorosamente controllati e revisionati da esperti terzi. Questi protocolli dovrebbero garantire che i sistemi aderenti sono sicuri oltre ogni ragionevole dubbio.
È indispensabile rifocalizzarsi su accuratezza, sicurezza, interpretabilità, trasparenza, solidità, allineamento, affidabilità e lealtà degli attuali sistemi, prima di procedere a svilupparne altri.
Allo stesso tempo, i Big Tech invocano un maggiore controllo. Gli sviluppatori di Intelligenza Artificiale devono lavorare con i regolatori per accelerare fortemente lo sviluppo di robusti sistemi di governance dell’Intelligenza Artificiale, istituendo Autorità di Vigilanza dedicate, sistemi di supervisione robusti, metodi certi per aiutare a distinguere il reale dal sintetico e prevenire danni ed errori, un solido ecosistema di audit e certificazione. Bisogna introdurre la responsabilità per i danni causati dall’IA, destinare ingenti finanziamenti pubblici nella ricerca tecnica per la sicurezza AI e predisporre risorse capienti per far fronte alle drammatiche trasformazioni radicali economiche e politiche (soprattutto a carico della democrazia) che l’Intelligenza Artificiale provocherà.
Se tutto ciò non verrà messo in campo, anziché godere tutti dei benefici che una tecnologia sempre più avanzata come questa può portare al mondo, si precipiterà verso il disastro.