Salta al contenuto

Ti spiego come l'IA dovrebbe distruggere il mondo pt. 2

Oggi la domanda è: l'intelligenza artificiale è di tutti o di pochi?

Nell'edizione precedente abbiamo parlato dei rischi emergenti che, in un ipotetico scenario di AGI — cioè di un'intelligenza artificiale autonoma come un essere umano ma milioni di volte più capace — diventerebbero catastrofici per l'umanità.

Sebbene nella scorsa edizione si siano affrontati rischi come l'AI alignment, cioè un'IA con volontà propria, che compie azioni anche indesiderate per raggiungere un obiettivo, o il power-seeking behaviour, l'auto-miglioramento ricorsivo, ecc., abbiamo volutamente omesso il rischio dei rischi, il dibattito più grande che affronteremo oggi: l'IA è di tutti o e di pochi?

Benvenuti nella parte 2 di questa serie "Ti spiego come l'IA dovrebbe distruggere il mondo". Memorizza bene quello che sto per raccontarti perché quando discuterai di futuro dell'umanità con i tuoi amici o colleghi questo è il primo dilemma da smarcare: l'intelligenza artificiale, quella avanzata, chi la controllerà? E come sarà distribuita la sua potenza all'interno della società? Esistono solo due scenari e tutte le vie di mezzo.

Si parla di:

  • Centralizzazione: l’IA altamente avanzata resta nelle mani di poche grandi entità (aziende tech o governi) che dispongono delle immense risorse computazionali e dei dati necessari. Queste entità sono in grado di applicare rigorosi controlli di sicurezza sui sistemi prima di rilasciarli.
  • Decentralizzazione: i modelli di IA sono diffusi ampiamente, magari come soluzioni open-source a disposizione di tutti, con contributi aperti allo sviluppo e senza un monopolio di pochi attori.

Negli ultimi anni abbiamo visto segnali di entrambe le tendenze. Da un lato, colossi come OpenAI, Google e Meta hanno costruito modelli linguistici e visivi sempre più grandi (con decine o centinaia di miliardi di parametri) che richiedono infrastrutture gigantesche. Questo fa sì che solo poche organizzazioni al mondo possano spingere la frontiera dell’IA di punta, con alcuni addestramenti di modelli che sono arrivati a costare 180 milioni di dollari. Questa concentrazione comporta rischi di potere monopolistico sulle tecnologie (accesso, costi, condizionamento del mercato), ma offre anche un certo controllo centralizzato: ad esempio OpenAI può implementare filtri e monitorare l’uso del suo ChatGPT meglio di quanto non potrebbe fare se lo stesso modello fosse disponibile ovunque senza restrizioni.

Un sistema, quello centralizzato, ad oggi non completamente "impenetrabile". Lo dimostra il modello Llama di Meta, inizialmente distribuito solo a ricercatori accreditati, nel 2023 è trapelato online in maniera non autorizzata. Ciò ha permesso a sviluppatori indipendenti di sperimentarlo liberamente, dando vita in poche settimane a un fiorente ecosistema open-source: sono nate versioni ottimizzate che girano su normali PC o smartphone, e modelli derivati (come Vicuna, Alpaca, ecc.) affinati dalla comunità.

In breve, la comunità open ha raggiunto risultati sorprendenti che sfidano i giganti: un documento interno trapelato di Google ammetteva con preoccupazione che “non siamo posizionati per vincere questa corsa e nemmeno OpenAI. Mentre noi litigavamo, una terza fazione si stava mangiando il nostro pranzo… Mi riferisco all’open source. In parole povere, ci stanno doppiando”. Il memo prosegue notando che “cose che consideriamo problemi aperti sono già state risolte e nelle mani della gente… I modelli open-source sono più veloci, personalizzabili, privati e, a parità di risorse, più capaci. Stanno facendo cose con 100 dollari e 13 miliardi di parametri che noi fatichiamo a fare con 10 milioni e 540 miliardi”.

Quel memo è dell'8 maggio 2023 e faceva solo da precursore a una valanga di modelli open source che sarebbero arrivati nei mesi successivi: Llama, Qwen, Gemma, Mixtral, DeepSeek, e tanti altri (molti dei quali cinesi).

Insomma il dibattito su questa dicotomia l'abbiamo capito, ma vediamo i pro e i contro di ogni fazione:

  • Pro centralizzazione: se solo pochi attori controllano i modelli più avanzati, è più facile implementare misure di sicurezza (i big player dispongono di team dedicati all’etica e all’allineamento, e conducono test prima del rilascio pubblico dei modelli). Inoltre, un numero limitato di stakeholder permette dialoghi regolatori mirati: governi e aziende possono sedersi a tavoli negoziali e concordare standard. La centralizzazione può prevenire una proliferazione incontrollata di IA potenti in mani pericolose.
  • Contro centralizzazione: accentrare l’IA equivale ad accentrare il potere. Poche aziende potrebbero dominare l’economia (avendo l’IA più avanzata), influenzare l’opinione pubblica (tramite i chatbot conversazionali) e detenere quantità enormi di dati personali. C’è anche un rischio di soffocare l’innovazione: la ricerca open source e accademica ha storicamente spinto il settore avanti e potremmo vedere una svalutazione di quegli ambienti. Se l’IA avanzata resta chiusa, molti talenti non potranno contribuire e verificare; potrebbe instaurarsi una “classe sacerdotale” (passatemi il termine) dell’IA nelle corporation. Infine, la centralizzazione in pochi paesi potrebbe creare tensioni geopolitiche (la domanda “chi avrà l’IA più forte?” è già sul tavolo).
  • Pro decentralizzazione: una comunità ampia di sviluppatori open-source può adattare l’IA a innumerevoli esigenze locali, scovare bug e bias più velocemente (“più sono gli occhi, più i bug sono piccoli”). L’IA aperta favorisce la trasparenza: il codice ispezionabile permette di capire come funziona un modello, a differenza dei “black box” proprietari. Inoltre democratizza l’accesso: piccole imprese e paesi emergenti possono utilizzare modelli open senza pagare costose licenze alle big tech. C’è anche un argomento etico: se l’IA diventerà davvero una tecnologia di impatto sociale enorme, tenerla nelle mani di pochi privati potrebbe essere inaccettabile – alcuni chiedono che l’IA sia un bene comune.
  • Contro decentralizzazione: il rovescio della medaglia è la sicurezza. Un modello open-source di alto livello può essere usato da chiunque per qualsiasi scopo, anche malevolo. Abbiamo già esempi: Stable Diffusion, modello open di generazione immagini, è stato usato per creare deepfake non regolamentati; un modello linguistico senza filtri potrebbe essere impiegato per automatizzare phishing, diffondere propaganda mirata o fornire istruzioni per fabbricare esplosivi. Le aziende cercano di mitigare questi abusi limitando l’accesso ai loro modelli (OpenAI, ad esempio, non rende pubblico il codice di GPT-4 proprio per ridurne l’uso improprio). Inoltre, frammentare gli sforzi potrebbe portare a duplicazioni e a modelli mediamente meno sicuri perché privi dei grandi investimenti delle aziende su testing e alignment.

Detto ciò, la realtà sarà probabilmente ibrida. Vediamo già che i modelli open tendono a inseguire con qualche mese di ritardo i più avanzati modelli closed (ad es. le community open attualmente replicano GPT-3.5/GPT-4 su scala minore mentre OpenAI si avvicina alla versione 5). Allo stesso tempo, aziende come Meta stanno puntando su un approccio di “open innovation” (rilasciare modelli base a ricercatori per farli evolvere esternamente), mentre altre come OpenAI e Google mantengono segreto il know-how. I governi dovranno tenere conto di questa dinamica: regolamentare solo i big player potrebbe spingere le innovazioni pericolose nel sottobosco open-source, dove è più difficile intervenire. Alcuni esperti suggeriscono che andrebbe definito un “punto di cutoff” nelle capacità: modelli sopra una certa soglia di potenza devono essere monitorati e soggetti ad obblighi, quelli sotto lasciati liberi per non soffocare l’innovazione.

In conclusione, centralizzazione vs decentralizzazione dell’IA è un equilibrio complesso tra controllo/sicurezza e democratizzazione/innovazione. Probabilmente assisteremo a un mondo in cui i modelli più potenti (possibili future AGI) saranno sviluppati in consorzi o enti pubblico-privati sotto stretta sorveglianza, mentre moltissime applicazioni quotidiane deriveranno da versioni open o locali adattate a esigenze specifiche. La sfida politica sarà creare incentivi per la sicurezza senza impedire la collaborazione aperta.

C'è da dire che il mio sguardo sui fatti è piuttosto agnostico e poco allarmista — probabilmente faccio parte della categoria dei "policy maker" — ma nella prossima edizione vorrei portarvi le opinioni dei maggiori esperti, cercando di coprire un pochino tutto lo spettro. E tu in che categoria ti ritrovi?

Commenti

Più recenti