In breve:
Anthropic ha concordato un accordo extragiudiziale con autori statunitensi che accusavano la startup di aver addestrato i suoi modelli di intelligenza artificiale su opere piratate. L'intesa evita un processo su possibili violazioni del copyright. I termini non sono noti, ma la finalizzazione è prevista per il 3 settembre.
Riassunto completo:
- Anthropic, startup supportata da Amazon, ha raggiunto un accordo in una causa collettiva con un gruppo di autori statunitensi.
- Gli autori accusavano Anthropic di aver addestrato i suoi modelli di intelligenza artificiale Claude su milioni di opere protette da copyright e piratate.
- L'accordo evita un processo che avrebbe stabilito il risarcimento per l'utilizzo di materiali piratati nei sistemi di intelligenza artificiale.
- I termini specifici dell'accordo non sono ancora stati resi pubblici.
- La causa originale, avviata da Andrea Bartz, Charles Graeber e Kirk Wallace Johnson, riguardava l'uso di un dataset open-source contenente materiali piratati.
- Un giudice a giugno aveva stabilito che l'addestramento su libri acquistati legalmente è fair use, ma ha permesso la prosecuzione della causa per opere piratate.
- Anthropic avrebbe potuto affrontare multe tra miliardi e oltre 1 trilione di dollari, secondo Wired, se il processo si fosse tenuto.
- La finalizzazione dell'accordo è prevista per il 3 settembre.
L'anarchia del training
Questo non è l'unico episodio: Meta ha in corso cause in USA e Francia, OpenAI e Microsoft sono stato querelate dai quotidiani e autori, Perplexity AI denunciata da editori giapponesi, News Corpo, BBC e altri, Stability AI e Midjourney denunciate da Getty Images, Disney e Universal. Di fatto, la corsa agli addestramenti è stata un'anarchia totale — anche per questo in futuro risulterà sempre più complicato addestrare.
Questo testo è un riassunto del seguente articolo (eng):

Alternativa in italiano:
