In breve:
Anthropic richiede agli utenti Claude di decidere entro il 28 settembre se le loro conversazioni andranno in pasto all'IA oppure no, un cambiamento radicale rispetto alla politica precedente. La nuova regola estende la conservazione dei dati a cinque anni per chi non disattiva l'opzione.
Riassunto completo:
- Anthropic richiede a tutti gli utenti Claude di decidere entro il 28 settembre se le loro conversazioni verranno usate per addestrare i modelli di intelligenza artificiale, modificando la precedente politica di non utilizzo dei dati.
- Anthropic intende ora addestrare i suoi sistemi di intelligenza artificiale su conversazioni e sessioni di codice degli utenti consumer, estendendo la conservazione dei dati a cinque anni per chi non opta per la disattivazione.
- Le nuove politiche si applicano agli utenti Claude Free, Pro e Max, inclusi quelli che utilizzano Claude Code; i clienti business di Anthropic non sono interessati da queste modifiche.
- Anthropic dichiara che l'uso dei dati migliorerà la sicurezza dei modelli e le capacità come coding, analisi e ragionamento, portando a sistemi migliori per tutti gli utenti.
- L'articolo suggerisce che la mossa è dettata dalla necessità di dati conversazionali di alta qualità per migliorare il posizionamento competitivo contro rivali come OpenAI e Google.
- Il settore affronta una crescente pressione sulle politiche dei dati; OpenAI, ad esempio, è coinvolta in una causa legale che richiede la conservazione indefinita delle conversazioni ChatGPT consumer.
- Il design dell'interfaccia per l'accettazione delle nuove politiche Anthropic solleva preoccupazioni che gli utenti possano accettare la condivisione dei dati senza notare l'opzione pre-attivata in piccolo.
- Esperti e la Federal Trade Commission (FTC) hanno avvertito sui rischi di consenso utente non significativo in contesti di intelligenza artificiale, specie con modifiche poco chiare delle politiche.
Faresti opt-out?
Il tema della privacy è delicato. Spesso, anche se viene specificato che i dati delle tue conversazioni non vengono associati alla tua identità, molti utenti non si fidano. Gli LLM hanno bisogno di un enorme quantità di dati per progredire e, in un mondo che blocca sempre di più i crawler e data la conoscenza finita presente online, le conversazioni con i chatbot sono senza dubbio una fonte molto preziosa. Tu faresti opt-out?
Questo testo è un riassunto del seguente articolo (eng):

Alternativa in italiano: