Nelle due edizioni precedenti abbiamo parlato delle quattro tipologie di persone che si distinguono per le proprie opinioni: gli ottimisti, i catastrofisti, i policy maker e gli scettici; poi abbiamo parlato dei principali rischi: quando fa cose di nascosto (AI alignment), quando simula di obbedire (alignment faking), quando ricerca maggiore potere (power-seeking behaviour), quando impara nuove skill non preventivate (emerging abilities), quando entra in un loop di auto-miglioramento infinito ed esponenziale, e così via.
È interessante vedere come le persone maggiormente coinvolte nel settore dell'IA abbiano opinioni contrastanti, sebbene in fondo delineeremo anche i loro punti di accordo. Il tema è caldo, attuale, la posta in gioco è altissima.
Oggi ascolteremo le voci più autorevoli e perché pensano quello che pensano, da dove traggono i dati. Queste sono persone che vivono o hanno vissuto nei più grandi laboratori di intelligenza artificiale al mondo o negli ambienti accademici più rinomati — stiamo parlando di Geoffrey Hinton, Yoshua Bengio, Sam Altman e Yann LeCun. Qualche spoiler? L'intelligenza artificiale è simile alla bomba atomica.
Questo contenuto è per i Plus
Fai level up della tua cultura e sostieni un progetto indipendente.
Leggi di più
Hai già un account? Accedi e poi fai l'upgrade