In breve:
Anthropic ha interrotto l'accesso di OpenAI ai suoi modelli Claude per presunta violazione dei termini di servizio: OpenAI avrebbe usato i modelli per confrontarli con i propri e per sviluppare servizi concorrenti, anche in vista di GPT-5. Anthropic manterrà l'accesso alle API. OpenAI ha replicato definendo il proprio uso "standard di settore" e lamentando la decisione.
Riassunto completo:
- Anthropic ha interrotto l'accesso di OpenAI alla famiglia di modelli Claude, una mossa rivelata il 2 agosto 2025.
- La ragione principale addotta da Anthropic è che OpenAI stava confrontando le prestazioni di Claude con i propri modelli, in aree come la codifica, la scrittura e la sicurezza.
- In particolare, è stato rilevato l'uso di strumenti di codifica di Anthropic da parte del personale tecnico di OpenAI prima del lancio di GPT-5, una chiara violazione dei termini di servizio che proibiscono lo sviluppo di servizi concorrenti.
- Tuttavia, Anthropic ha specificato che l'accesso sarà mantenuto per attività di benchmarking e valutazioni di sicurezza.
- OpenAI ha difeso il suo operato definendolo "standard di settore", esprimendo delusione e ricordando che la sua API è ancora disponibile per Anthropic.
- Questa azione si inserisce in un contesto di consolidata riluttanza da parte di Anthropic a concedere accesso a competitor, un esempio precedente è stata la limitazione di accesso a Windsurf.
Questo testo è un riassunto del seguente articolo (eng):
Anthropic cuts off OpenAI’s access to its Claude models | TechCrunch
OpenAI was connecting Claude to internal tools that allowed the company to compare Claude’s performance to its own models in categories like coding, writing, and safety.

Alternativa in italiano:
Perché Anthropic ha bloccato l’accesso di OpenAI al suo chatbot
La società di intelligenza artificiale guidata da Sam Altman è accusata di aver violato i termini di servizio della rivale: ecco cosa è successo
