Deux auteurs accusent Apple d’avoir formé ses IA en utilisant leurs livres sans demander la permission. Grady Hendrix et Jennifer Robertson ont déposé un recours collectif devant la cour fédérale de Californie du Nord dans lequel ils affirment qu'Apple a copié des œuvres protégées sans autorisation, sans mentionner leur auteur et sans verser de compensation. « Apple n'a pas cherché à rémunérer ces auteurs pour leur contribution à cette entreprise potentiellement lucrative », indique la plainte relayée par Reuters.

L’accusation se base sur les informations du modèle OpenELM, un LLM d’Apple pensé pour l'entraînement des IA publié en avril 2024. Cupertino a expliqué avoir fait appel au sous-ensemble « Books3 » du jeu de données RedPajama, présenté dans la plainte comme « un ensemble connu de livres piratés ». Il s’agirait d’une copie d’un site web de « bibliothèque fantôme » connu sous le nom de Bibliotik pour un fichier au format .txt (sans mise en forme, polices ou images) contenant 196 640 livres.
Autrement dit, les modèles à la base d’Apple Intelligence auraient été entraînés sur du matériel piraté. Apple n’aurait pas directement piraté des livres, mais utilisé des jeux de données faisant appel à du contenu protégé par le droit d’auteur. La plainte insiste sur le fait qu’Apple n’a pas tenté de rémunérer les auteurs lésés.
Si les entreprises d’IA sont nombreuses à avoir reçu de telles plaintes, les actions en justice ne tournent pas forcément en faveur des auteurs. Meta a gagné un procès l’opposant à deux écrivains, tandis qu’un juge a déclaré qu’Anthropic n'avait pas enfreint le droit d'auteur en formant son IA à partir de livres sans demander d’autorisation. Donald Trump ne s’est pas montré contre la pratique, qu’il estime être « du bon sens » :
On ne peut pas s'attendre à obtenir un programme d'IA performant si chaque article, livre ou autre document lu ou étudié est payant […] C'est tout simplement impossible, car ce n'est pas faisable.
Les entreprises sentent tout de même que le vent pourrait tourner. Récemment, Anthropic a par exemple signé un accord à 1,5 milliard de dollars pour enterrer une class-action l’accusant d’avoir utilisé des versions piratées de leurs livres pour entraîner son LLM.