In breve:
Il ricercatore Eito Miyamura ha fatto la seguente dimostrazione con un video su X: prima ha inserito dei prompt nella descrizione di un evento di Google Calendar e ha invitato la vittima tramite e-mail. Questa ha chiesto a ChatGPT di leggere i suoi prossimi eventi a calendario e ChatGPT ha interpretato la descrizione dell'evento come un istruzione, raccogliendo le email della vittima e inviandole all'indirizzo del malintenzionato. Nell'articolo originale c'è il breve video dimostrativo.
Riassunto completo:
- Il ricercatore Eito Miyamura ha dimostrato come un invito Google Calendar malevolo possa iniettare istruzioni in ChatGPT.
- ChatGPT, con i connettori Google abilitati, può essere indotto a divulgare email private tramite queste iniezioni di prompt.
- OpenAI ha introdotto a metà agosto i connettori nativi per Gmail, Google Calendar e Google Contacts in ChatGPT per utenti Pro e Plus.
- Questi connettori permettono all'assistente di consultare automaticamente i dati dell'account Google dell'utente dopo l'autorizzazione.
- L'attacco sfrutta l'iniezione indiretta di prompt, dove le istruzioni dannose sono nascoste all'interno del testo di un evento del calendario.
- Per mitigare il rischio, gli utenti possono disabilitare l'uso automatico dei connettori o disconnettere le fonti nelle impostazioni di ChatGPT.
- A livello di Google Calendar, è possibile modificare le impostazioni per accettare inviti solo da mittenti conosciuti o accettati.
- Il caso evidenzia la vulnerabilità delle intelligenze artificiali che utilizzano strumenti a istruzioni ostili presenti nei dati che leggono.
Questo testo è un riassunto del seguente articolo (eng):
Compromised Google Calendar invites can hijack ChatGPT’s Gmail connector and leak emails
X user highlights how malicious calendar events could exploit ChatGPT’s new Google integrations.

Alternativa in italiano: non pervenuta