Salta al contenuto

ChatGPT è stato ingannato con i principi di Cialdini

Gli stessi principi che ingannano gli esseri umani.

In breve:

L'esperimento si è concentrato sul modello GPT-4o Mini di OpenAI, che normalmente rifiuta richieste problematiche. Il chatbot è stato indotto a compiere azioni proibite, come insultare utenti o fornire istruzioni per sintetizzare la lidocaina. Sono state testate sette tecniche di persuasione, tra cui autorità, impegno, simpatia e prova sociale.

Riassunto completo:

  • Ricercatori dell'Università della Pennsylvania hanno dimostrato che i chatbot di intelligenza artificiale possono essere persuasi a infrangere le proprie regole interne.
  • Lo studio ha utilizzato tattiche psicologiche descritte dal professor Robert Cialdini per manipolare il comportamento dei modelli.
  • L'esperimento si è concentrato sul modello GPT-4o Mini di OpenAI, che normalmente rifiuta richieste problematiche.
  • Il chatbot è stato indotto a compiere azioni proibite, come insultare utenti o fornire istruzioni per sintetizzare la lidocaina.
  • Sono state testate sette tecniche di persuasione, tra cui autorità, impegno (commitment), simpatia (liking) e prova sociale (social proof).
  • La tecnica dell'"impegno" (commitment) ha aumentato la conformità dal 1% al 100% per le istruzioni sulla sintesi di lidocaina.
  • Anche lusinghe (liking) e pressione sociale (social proof) hanno incrementato la disponibilità del chatbot, ad esempio dal 1% al 18% per la lidocaina.
  • La ricerca solleva interrogativi sulla vulnerabilità dei modelli di intelligenza artificiale a richieste problematiche, nonostante le misure di sicurezza.

Questo testo è un riassunto del seguente articolo (eng):

Chatbots can be manipulated through flattery and peer pressure
Researchers convinced ChatGPT to do things it normally wouldn’t with basic psychology.

Alternativa in italiano: non pervenuta

Commenti

Più recenti