Salta al contenuto

Anthropic sta cercando un esperto di armi per impedire agli utenti l'uso improprio

Gli esperti chiedono una regolamentazione comune.

In breve:

Anthropic sta cercando per il team di sicurezza un esperto con almeno 5 anni di esperienza su difesa da armi chimiche, esplosivi ad alto potenziale e dispositivi radiologici “dirty bomb”, cioè ordigni che spargono materiale radioattivo, per testare se i filtri di Claude bloccano davvero richieste pericolose e riducono il rischio di uso improprio. Anthropic ha detto alla BBC che ruoli simili esistono già per altre aree sensibili; anche OpenAI ha pubblicato posizioni legate a rischi chimici/biologici. Alcuni ricercatori criticano l’approccio: senza regole globali e trattati specifici sugli esplosivi in contesti AI, resta il dubbio su quanto sia sicuro gestire tali conoscenze. Intanto, Claude resta integrato nei sistemi di Palantir usati in ambito difesa.

Questo testo è un riassunto del seguente articolo (eng):

AI firm Anthropic seeks weapons expert to stop users from ‘misuse’
The artificial intelligence firm says it wants to prevent “catastrophic misuse” of its systems.

Riassunto completo:

Questo post è solo per gli iscritti

Accedi

A quanto pare non sei loggato.

Più recenti