Les entreprises d'IA peuvent utiliser des livres protégées par le droit d'auteur pour former des modèles de langue, juger les règles dans l'affaire anthropique

Les entreprises d'IA peuvent utiliser des livres protégées par le droit d'auteur pour former des modèles de langue, juger les règles dans l'affaire anthropique

Le modèle de Claude AI d'Anthropic a donné aux utilisateurs des réponses qui étaient «extrêmement transformatrices» et n'ont pas violé la loi sur la foire, un juge de Californie.

Mardi, dans une grande victoire judiciaire pour les sociétés de renseignement artificiel, un juge fédéral de Californie s'est rangé du côté d'Anthropic, la société mère de la Claude AI Chatbot, les livres protégés par le droit d'auteur peuvent être utilisés pour former des modèles d'IA sans consentement en vertu de la loi sur l'utilisation.

Pourtant, Anthropic n'est pas complètement autorisé – le juge William Alsup a déclaré que la société devra faire face à un procès séparé sur son «piratage» de millions de livres protégés par le droit d'auteur.

Sur le premier numéro de Fair Use, le juge Alsup a statué sur l'article 107 de la loi protégé par le droit d'auteur a permis à Anthropic de former Claude en utilisant des livres protégés par le droit d'auteur. En effet, les réponses de Claude, basées sur le matériel protégé par le droit d'auteur, étaient «extrêmement transformatrices» – en d'autres termes, très différents du matériel source et ne pouvaient pas être considérés comme des arnaques.

Le juge a également statué que la loi sur l'utilisation équitable a permis à Anthropic de prendre des livres physiques achetés et de les scanner dans une «bibliothèque de recherche» numérique qui peut être utilisée pour former ses modèles.

«Cependant, Anthropic n'avait aucun droit d'utiliser des copies piratées» de livres pour sa bibliothèque, a jugé le juge. Au total, Anthropic a piraté «plus de sept millions d'exemplaires de livres», a déclaré le juge dans sa décision, en téléchargeant illégalement des copies numériques que les dirigeants de l'entreprise savaient que ce sont des «copies non autorisées».

Anthropic, le juge a ajouté: «aurait pu acheter des livres, mais il a préféré les voler pour éviter» ce que le cofondateur et PDG Dario Amodei a déclaré être un «slog» légal.

Le procès contre Anthropic a été déposé l'année dernière par trois auteurs: Andrea Bartz, Kirk Wallace et Charles Graeber. Anthropic, a déclaré le juge dans sa décision mardi, des copies piratées d'au moins deux œuvres de chaque auteur.

La décision survient alors que la question de l'utilisation équitable et de la façon dont les modèles d'IA sont formés sont venus au premier plan dans les mondes des médias et du divertissement ces dernières années. Openai, la société mère de Chatgpt, fait actuellement face à un procès du New York Times, qui affirme que la société d'IA a volé son contenu pour former son modèle. Des centaines de créateurs d'Hollywood, dont Ben Stiller, Aubrey Plaza, et Joseph Gordon-Levitt, ont également récemment appelé l'administration Trump à repousser Openai et d'autres sociétés qui ont fait pression pour des lois sur le droit d'auteur plus lâches.

Et plus tôt ce mois-ci, Disney a poursuivi la société AI Midjourney pour violation du droit d'auteur, affirmant que son modèle créait illégalement des images qui étaient des copies exactes de personnages comme Homer Simpson et Elsa de «Frozen».

Vous pouvez lire la décision du tribunal de mardi en cliquant ici.

Publications similaires