In breve:
Anthropic sta cercando per il team di sicurezza un esperto con almeno 5 anni di esperienza su difesa da armi chimiche, esplosivi ad alto potenziale e dispositivi radiologici “dirty bomb”, cioè ordigni che spargono materiale radioattivo, per testare se i filtri di Claude bloccano davvero richieste pericolose e riducono il rischio di uso improprio. Anthropic ha detto alla BBC che ruoli simili esistono già per altre aree sensibili; anche OpenAI ha pubblicato posizioni legate a rischi chimici/biologici. Alcuni ricercatori criticano l’approccio: senza regole globali e trattati specifici sugli esplosivi in contesti AI, resta il dubbio su quanto sia sicuro gestire tali conoscenze. Intanto, Claude resta integrato nei sistemi di Palantir usati in ambito difesa.
Questo testo è un riassunto del seguente articolo (eng):

