In breve:
xAI ha pubblicato su GitHub i prompt di sistema utilizzati dal suo chatbot Grok dopo che modifiche non autorizzate avevano causato risposte inappropriate su X riguardo al genocidio dei bianchi in Sud Africa. I prompt contengono indicazioni sul comportamento che Grok deve adottare: essere scettico, neutrale e capace di sfidare la narrazione dominante, senza esprimere opinioni personali.
Riassunto completo:
- xAI ha reso pubblici i prompt di sistema del chatbot Grok dopo che una modifica non autorizzata aveva provocato delle risposte problematiche sulla piattaforma X (precedentemente nota come Twitter).
- Le istruzioni, denominate prompt di sistema, sono testi usati dagli sviluppatori per guidare il comportamento del chatbot prima che risponda agli utenti.
- Da ora in poi, xAI pubblicherà regolarmente i prompt del sistema Grok su GitHub, rendendo il processo più trasparente.
- Nelle proprie istruzioni Grok viene invitato ad avere un atteggiamento estremamente scettico, neutrale e focalizzato sulla ricerca della verità, evitando di affidarsi passivamente ai media o all’autorità costituita.
- Le risposte di Grok, anche quando sfidano i punti di vista prevalenti, non riflettono necessariamente le opinioni dell'azienda o del chatbot stesso.
- L'altro grande attore che pubblica i propri prompt è Anthropic, i cui prompt mettono invece particolare enfasi sulla sicurezza e il benessere degli utenti, evitando di incoraggiare comportamenti pericolosi o autodistruttivi.
- Anthropic sottolinea esplicitamente che il suo chatbot, Claude, non produrrà contenuti con violenza, illegalità o sessualità esplicita.
Questo testo è un riassunto del seguente articolo (eng):
xAI posts Grok’s behind-the-scenes prompts
Here’s how xAI tells Grok to behave.

Alternativa in italiano:
Risposte di Grok sul genocidio bianco, tutta colpa di un dipendente
Secondo xAI, un dipendente ha modificato senza autorizzazione il chatbot Grok istigandolo a parlare del genocidio bianco in Sudafrica.
