Salta al contenuto

Adesso si possono mettere nuove istruzioni sul robots.txt per i crawler AI

Già adottato da nomi grossi come Reddit, Yahoo e Quora.

In breve:

È stato lanciato lo standard Really Simple Licensing (RSL) dal RSL Collective. Questo protocollo aperto, che è un evoluzione del robots.txt, permette agli editori di definire termini e compensi per l'uso di contenuti digitali da parte dei crawler di intelligenza artificiale, bloccando quelli non conformi. Tra le aziende che partecipano ci sono Reddit, Yahoo, Quora, Medium, The Daily Beast e Fastly.

Riassunto completo:

  • Un nuovo standard, "Really Simple Licensing" (RSL), è stato annunciato per gestire l'uso di contenuti da parte dei crawler di intelligenza artificiale.
  • Il RSL è stato creato da RSL Collective, fondato da Doug Leeds (ex CEO Ask.com) ed Eckart Walther (ex VP Yahoo e co-creatore di RSS).
  • Il protocollo espande le istruzioni `robots.txt` aggiungendo un livello di licenza automatico per i crawler di intelligenza artificiale.
  • Lo standard specifica i termini per la licenza, l'utilizzo e la compensazione dei contenuti usati per addestrare sistemi di intelligenza artificiale.
  • È un protocollo aperto e decentralizzato, disponibile gratuitamente per qualsiasi editore.
  • Il RSL supporta vari modelli di licenza, inclusi gratuiti, a pagamento per ogni crawl o a pagamento per ogni inferenza.
  • Il sistema è progettato per bloccare i bot che non compensano equamente i creatori per l'uso dei loro contenuti digitali.
  • Tra le aziende che partecipano ci sono Reddit, Yahoo, Quora, Medium, The Daily Beast e Fastly.

Questo testo è un riassunto del seguente articolo (eng):

Pay-per-output? AI firms blindsided by beefed up robots.txt instructions.
“Really Simple Licensing” makes it easier for creators to get paid for AI scraping.

Alternativa in italiano: Everyeye Tech

Commenti

Più recenti