Salta al contenuto

Ti spiego come l'IA dovrebbe distruggere il mondo Pt. 3

Ascoltiamo le voci più autorevoli al mondo.

Nelle due edizioni precedenti abbiamo parlato delle quattro tipologie di persone che si distinguono per le proprie opinioni: gli ottimisti, i catastrofisti, i policy maker e gli scettici; poi abbiamo parlato dei principali rischi: quando fa cose di nascosto (AI alignment), quando simula di obbedire (alignment faking), quando ricerca maggiore potere (power-seeking behaviour), quando impara nuove skill non preventivate (emerging abilities), quando entra in un loop di auto-miglioramento infinito ed esponenziale, e così via.

È interessante vedere come le persone maggiormente coinvolte nel settore dell'IA abbiano opinioni contrastanti, sebbene in fondo delineeremo anche i loro punti di accordo. Il tema è caldo, attuale, la posta in gioco è altissima.

Oggi ascolteremo le voci più autorevoli e perché pensano quello che pensano, da dove traggono i dati. Queste sono persone che vivono o hanno vissuto nei più grandi laboratori di intelligenza artificiale al mondo o negli ambienti accademici più rinomati — stiamo parlando di Geoffrey Hinton, Yoshua Bengio, Sam Altman e Yann LeCun. Qualche spoiler? L'intelligenza artificiale è simile alla bomba atomica.

Questo contenuto è per i Plus

Fai level up della tua cultura e sostieni un progetto indipendente.
Leggi di più

Vedi abbonamenti

Hai già un account? Accedi e poi fai l'upgrade

Più recenti