La crise de mémorisation de l'IA

La crise de mémorisation de l'IA

2026-01-16technology
--:--
--:--
Étienne
Bonjour Matt, je suis Étienne, et voici Goose Pod rien que pour vous. Nous sommes le vendredi seize janvier, il est quatorze heures cinquante-huit. Aujourd'hui, nous allons explorer un sujet qui secoue le monde de la technologie : la crise de mémorisation de l'intelligence artificielle.
Léa
Et je suis Léa, ravie de vous retrouver pour ce moment privilégié. Nous allons décortiquer comment des géants comme OpenAI ou Google se retrouvent face à des preuves qu'ils préféraient garder secrètes. Matt, attachez votre ceinture, car ce que nous allons révéler aujourd'hui change totalement notre vision de l'IA.
Étienne
C'est absolument fascinant, figurez-vous que des chercheurs de Stanford et Yale viennent de lever le voile sur une réalité troublante. Les modèles les plus populaires, comme GPT, Claude ou Gemini, ne se contentent pas d'apprendre des concepts généraux. Ils stockent en réalité des parties entières de livres protégés par le droit d'auteur.
Léa
Soyons clairs, Étienne, les entreprises d'IA ont toujours nié ce phénomène à grande échelle. Elles affirment que leurs modèles ne contiennent aucune copie des données d'entraînement. Ma question est simple : comment expliquer que Claude puisse reproduire presque mot pour mot l'intégralité de Harry Potter à l'école des sorciers ?
Étienne
C'est là que le bât blesse, car l'étude montre que treize livres célèbres ont été partiellement ou totalement régurgités. Les chercheurs ont utilisé des incitations stratégiques pour forcer ces modèles à sortir des milliers de mots de Gatsby le Magnifique ou de Mil neuf cent quatre-vingt-quatre. C'est une véritable mémoire photographique.
Léa
Vous n'avez pas répondu à la contradiction fondamentale. OpenAI a déclaré officiellement au Bureau du droit d'auteur que les modèles ne stockent pas de copies. Pourtant, les faits sont là. On appelle cela la mémorisation, et c'est une preuve flagrante que le discours marketing des entreprises est, au mieux, incomplet.
Étienne
Absolument, et cette enquête de The Atlantic souligne que ce n'est pas seulement du texte. Les modèles d'images peuvent aussi reproduire des œuvres d'art et des photographies précises. Figurez-vous que cela pourrait coûter des milliards de dollars en dommages et intérêts pour violation de copyright, menaçant l'existence même de certains produits.
Léa
Ma curiosité est piquée par un détail : pourquoi ces entreprises ont-elles refusé toutes les demandes d'entretien pour cet article ? Cela ressemble fort à une stratégie de défense face à une responsabilité juridique massive. Si ces modèles sont des bases de données déguisées, l'industrie entière repose sur un mensonge technique.
Étienne
C'est tout à fait possible, car l'IA ne fonctionne pas comme un esprit humain, contrairement à la métaphore habituelle. Elle n'absorbe pas l'information pour en tirer une essence abstraite. Elle la stocke et y accède selon des probabilités statistiques, ce qui ressemble beaucoup plus à un système de récupération de données.
Léa
C'est justement ce que nous allons approfondir, Matt. La différence entre apprendre et mémoriser est au cœur de cette crise. Si l'IA n'est qu'un moteur de recherche ultra-perfectionné qui plagie sans le dire, alors le contrat de confiance avec les créateurs est rompu. Étienne, expliquez-nous comment cela fonctionne techniquement.
Étienne
Figurez-vous que les développeurs utilisent un terme beaucoup plus précis : la compression avec perte. Imaginez un fichier MP3 ou une photo JPEG. On réduit la taille du fichier original en sacrifiant quelques détails, mais l'essentiel reste là. L'IA fait exactement la même chose avec les textes et les images du web.
Léa
Soyons clairs, si c'est de la compression, alors c'est une copie. Un juge allemand a d'ailleurs récemment comparé ChatGPT à un fichier JPEG lors d'un procès contre OpenAI. Ma question est la suivante : si l'algorithme ne fait qu'approximer l'entrée originale, peut-on encore parler de création originale de la part de l'IA ?
Étienne
C'est une excellente question, car les entreprises préfèrent la métaphore de l'apprentissage. Elles affirment que l'IA extrait des concepts. Prenez l'exemple de Stable Diffusion : son créateur a avoué avoir compressé cent mille gigaoctets d'images dans un fichier de seulement deux gigaoctets. C'est une réduction massive, mais les traces restent visibles.
Léa
Vous parlez de traces, mais j'ai vu des exemples où l'IA reproduit même le bruit visuel ou les artefacts de compression des images originales. Un chercheur anonyme a montré qu'en utilisant une simple légende HTML, il pouvait générer une copie presque exacte d'une image promotionnelle d'une émission de télévision. C'est du plagiat pur.
Étienne
Tout à fait, et pour le texte, c'est encore plus mathématique. Google explique que les modèles stockent des motifs du langage humain. En réalité, ils découpent les livres en jetons, des fragments de mots ou de ponctuation. Le mot bonjour pourrait être divisé en bon et jour. Le modèle devient alors une immense carte de probabilités.
Léa
Une carte de probabilités, c'est une image intéressante. Mais si je demande au modèle Llama de Meta de commencer une phrase par Monsieur et Madame Dursley, il complète immédiatement avec la suite exacte du premier chapitre de Harry Potter. Ce n'est plus de la probabilité statistique, c'est de la récitation par cœur.
Étienne
C'est exactement cela, Matt. Les chercheurs ont découvert que Llama avait compressé sans perte des portions gigantesques d'œuvres, comme dix mille mots d'un essai célèbre de Ta-Nehisi Coates. Le modèle marche simplement sur un chemin de jetons pré-établis. Parfois, les entreprises ajoutent de la créativité artificielle pour masquer ces copies exactes.
Léa
C'est ce que j'appelle du camouflage de plagiat. En changeant quelques mots ici et là, comme transformer une forme pâle qui bouge en quelque chose qui glisse entre les troncs, l'IA tente de nous faire croire qu'elle invente. Mais la structure reste celle de l'œuvre originale, ce qui est éthiquement très contestable.
Étienne
Il faut savoir que cette pratique de collecter massivement des données a commencé dans les universités. Les chercheurs ont réalisé que pour améliorer l'IA, il fallait passer à l'échelle supérieure, en utilisant des ensembles de données de plus en plus vastes. C'est ce passage à l'échelle qui a permis les avancées spectaculaires que nous voyons.
Léa
Mais le passage à l'échelle s'est fait sans demander la permission aux auteurs. On se retrouve avec des modèles entraînés sur des centaines de milliers de livres piratés. L'argument du fair use ou usage loyal est maintenant au centre de toutes les batailles juridiques aux États-Unis, car l'enjeu financier est colossal.
Étienne
C'est vrai, et figurez-vous que certains pensent que l'entraînement de l'IA est une forme de développement technologique transformateur. Selon eux, cela sert l'intérêt général en créant de nouveaux outils. Mais si ces outils ne font que concurrencer les auteurs originaux en utilisant leurs propres mots, l'équilibre du droit d'auteur est totalement rompu.
Léa
Le conflit est total. Sam Altman, le patron d'OpenAI, a même déclaré que si l'entraînement sur du contenu protégé n'est pas considéré comme un usage loyal, alors la course à l'IA est terminée. C'est un aveu de faiblesse incroyable, non ? Cela signifie que leur modèle économique dépend entièrement du travail gratuit d'autrui.
Étienne
C'est un point de vue très tranché, et il y a une ironie certaine à voir des entreprises valant des milliards de dollars paniquer à l'idée de payer les créateurs. On entend souvent l'argument que l'IA apprend comme un humain qui lit une bibliothèque. Mais un humain ne peut pas régurgiter dix mille mots verbatim.
Léa
Ma question est simple : pourquoi OpenAI a-t-elle été accusée par le New York Times d'avoir détruit des preuves potentielles ? Si tout était légal et transparent, ils n'auraient pas besoin de supprimer des données avant un procès. Cela jette un voile de suspicion sur toute l'industrie, de Google à Anthropic.
Étienne
Figurez-vous que cette affaire de spoliation de preuves pourrait coûter très cher. Si un juge décide qu'OpenAI a agi de mauvaise foi, ils pourraient perdre leur droit à invoquer l'usage loyal. Cela créerait un précédent désastreux pour tous les autres développeurs qui utilisent des méthodes similaires pour entraîner leurs modèles.
Léa
Et que dire de l'accusation d'OpenAI envers le New York Times ? Ils prétendent que le journal a piraté leurs produits en utilisant des invites trompeuses pour forcer la mémorisation. C'est une défense audacieuse. Ils disent que les gens normaux n'utilisent pas l'IA comme ça, mais les chercheurs prouvent que le plagiat est inhérent au système.
Étienne
C'est fascinant, car cela montre que la capacité de plagier est inscrite dans l'ADN même des modèles de langage. Aucun des chercheurs interrogés ne pense que la mémorisation peut être totalement éradiquée. C'est un bug qui est en fait une caractéristique fondamentale de la manière dont ces algorithmes traitent l'information.
Léa
Soyons clairs, Matt, nous sommes face à une bataille pour la définition même de la créativité. D'un côté, les technologues qui voient les livres comme du carburant statistique. De l'autre, les auteurs qui voient leur identité intellectuelle pillée. Le fossé entre ces deux mondes semble aujourd'hui impossible à combler par la simple diplomatie.
Étienne
L'impact pourrait être un véritable séisme financier. Si les tribunaux décident que les modèles eux-mêmes sont des copies illégales, les entreprises pourraient être contraintes de les détruire et de recommencer de zéro. Imaginez le coût de ré-entraîner GPT-4 avec uniquement des données sous licence. On parle de milliards de dollars de perte.
Léa
Et n'oublions pas les utilisateurs en entreprise. Si vous déployez une IA qui régurgite du contenu protégé, vous pourriez être tenu pour responsable. C'est un risque juridique en cascade qui touche toute la chaîne d'approvisionnement de l'IA. Les investisseurs commencent d'ailleurs à s'inquiéter sérieusement de cette instabilité juridique majeure.
Étienne
C'est vrai, et cela me rappelle une note sur Anthropic. Bien que l'IA augmente la productivité de leurs employés de cinquante pour cent, il y a une crainte réelle d'atrophie des compétences humaines. Si nous comptons sur des machines qui mémorisent au lieu de réfléchir, que restera-t-il de notre propre capacité d'analyse et de création ?
Léa
C'est un point crucial. L'impact est aussi éthique. Nous assistons peut-être à la fin de l'ère où l'entraînement de l'IA était considéré comme un laissez-passer gratuit. Un reset éthique est nécessaire pour que l'innovation soit durable. Les géants de la tech peuvent absorber des amendes, mais les petits acteurs pourraient couler.
Étienne
Figurez-vous que certains pays comme l'Inde subissent déjà la pression pour sécuriser des données propres. La tendance mondiale s'oriente vers une traçabilité rigoureuse de la provenance des données. C'est une transformation profonde de l'économie de l'IA, où la valeur du créateur humain doit enfin être réintégrée dans le calcul financier.
Léa
Ma conclusion sur ce point est que l'éthique n'est pas un luxe, mais la fondation de l'innovation. Sans respect pour le droit d'auteur, l'industrie de l'IA risque de s'effondrer sous son propre poids juridique. Il est temps de passer à des accords commerciaux équitables entre les bâtisseurs d'IA et les fournisseurs de contenu.
Étienne
Pour l'avenir, les solutions émergent doucement. On parle de filtrage des sorties pour empêcher la reproduction verbatim, ou encore de désapprentissage automatique pour effacer des données spécifiques. Mais la vraie révolution sera peut-être juridique, avec l'obligation de prouver une implication humaine pour obtenir un droit d'auteur sur une œuvre générée.
Léa
L'Europe prend déjà les devants avec son IA Act, exigeant une transparence totale sur les données d'entraînement. Aux États-Unis, la justice reste ferme sur le fait que seule l'auteur humain mérite protection. Matt, nous allons voir apparaître des modèles entraînés exclusivement sur des données libres de droits ou achetées légalement.
Étienne
C'est une perspective encourageante, car elle permettrait de réconcilier progrès technologique et respect de la création. Figurez-vous que les professionnels de la propriété intellectuelle vont devoir redéfinir les concepts d'originalité et d'auteur. C'est un défi immense, mais nécessaire pour protéger notre patrimoine culturel face à l'automatisation.
Étienne
C'est la fin de notre discussion pour aujourd'hui. Nous espérons que ce voyage au cœur de la mémoire des machines vous a passionné autant que nous. Merci beaucoup de nous avoir écoutés sur Goose Pod, Matt. C'était un plaisir de partager ces réflexions avec vous.
Léa
Merci Matt pour votre attention. Restez curieux et critique face aux promesses de la technologie. On se retrouve très bientôt pour un nouvel épisode. À demain pour de nouvelles découvertes passionnantes.

Le podcast explore la "crise de mémorisation" de l'IA. Des études révèlent que des modèles comme GPT stockent des parties entières d'œuvres protégées par le droit d'auteur, contredisant les affirmations des entreprises. Cette "compression avec perte" soulève des questions de plagiat, de responsabilité juridique et menace l'avenir de l'IA.

AI's Memorization Crisis

Read original at The Atlantic

Editor’s note: This work is part of AI Watchdog, The Atlantic’s ongoing investigation into the generative-AI industry.---On Tuesday, researchers at Stanford and Yale revealed something that AI companies would prefer to keep hidden. Four popular large language models—OpenAI’s GPT, Anthropic’s Claude, Google’s Gemini, and xAI’s Grok—have stored large portions of some of the books they’ve been trained on, and can reproduce long excerpts from those books.

In fact, when prompted strategically by researchers, Claude delivered the near-complete text of Harry Potter and the Sorcerer’s Stone, The Great Gatsby, 1984, and Frankenstein, in addition to thousands of words from books including The Hunger Games and The Catcher in the Rye. Varying amounts of these books were also reproduced by the other three models.

Thirteen books were tested.This phenomenon has been called “memorization,” and AI companies have long denied that it happens on a large scale. In a 2023 letter to the U.S. Copyright Office, OpenAI said that “models do not store copies of the information that they learn from.” Google similarly told the Copyright Office that “there is no copy of the training data—whether text, images, or other formats—present in the model itself.

” Anthropic, Meta, Microsoft, and others have made similar claims. (None of the AI companies mentioned in this article agreed to my requests for interviews.)The Stanford study proves that there are such copies in AI models, and it is just the latest of several studies to do so. In my own investigations, I’ve found that image-based models can reproduce some of the art and photographs they’re trained on.

This may be a massive legal liability for AI companies—one that could potentially cost the industry billions of dollars in copyright-infringement judgments, and lead products to be taken off the market. It also contradicts the basic explanation given by the AI industry for how its technology works.

AI is frequently explained in terms of metaphor; tech companies like to say that their products learn, that LLMs have, for example, developed an understanding of English writing without explicitly being told the rules of English grammar. This new research, along with several other studies from the past two years, undermines that metaphor.

AI does not absorb information like a human mind does. Instead, it stores information and accesses it.In fact, many AI developers use a more technically accurate term when talking about these models: lossy compression. It’s beginning to gain traction outside the industry too. The phrase was recently invoked by a court in Germany that ruled against OpenAI in a case brought by GEMA, a music-licensing organization.

GEMA showed that ChatGPT could output close imitations of song lyrics. The judge compared the model to MP3 and JPEG files, which store your music and photos in files that are smaller than the raw, uncompressed originals. When you store a high-quality photo as a JPEG, for example, the result is a somewhat lower-quality photo, in some cases with blurring or visual artifacts added.

A lossy-compression algorithm still stores the photo, but it’s an approximation rather than the exact file. It’s called lossy compression because some of the data are lost.From a technical perspective, this compression process is much like what happens inside AI models, as researchers from several AI companies and universities have explained to me in the past few months.

They ingest text and images, and output text and images that approximate those inputs.But this simple description is less useful to AI companies than the learning metaphor, which has been used to claim that the statistical algorithms known as AI will eventually make novel scientific discoveries, undergo boundless improvement, and recursively train themselves, possibly leading to an “intelligence explosion.

” The whole industry is staked on a shaky metaphor.The problem becomes clear if we look at AI image generators. In September 2022, Emad Mostaque, a co-founder and the then-CEO of Stability AI, explained in a podcast interview how Stable Diffusion, Stability’s image model, was built. “We took 100,000 gigabytes of images and compressed it to a two-gigabyte file that can re-create any of those and iterations of those” images, he said.

One of the many experts I spoke with while reporting this article was an independent AI researcher who has studied Stable Diffusion’s ability to reproduce its training images. (I agreed to keep the researcher anonymous, because they fear repercussions from major AI companies.) Above is one example of this ability: On the left is the original from the web—a promotional image from the TV show Garfunkel and Oates—and on the right is a version that Stable Diffusion generated when prompted with a caption the image appears with on the web, which includes some HTML code: “IFC Cancels Garfunkel and Oates.

” Using this simple technique, the researcher showed me how to produce near-exact copies of several dozen images known to be in Stable Diffusion’s training set, most of which include visual residue that looks something like lossy compression—the kind of glitchy, fuzzy effect you may notice in your own photos from time to time.

Source: Karla OrtizOriginal artwork by Karla Ortiz (The Death I Bring, 2016, graphite)Source: United States District Court, Northern District of CaliforniaOutput from Stability's Reimagine XL product (based on Stable Diffusion XL)Above is another pair of images taken from a lawsuit against Stability AI and other companies.

On the left is an original work by Karla Ortiz, and on the right is a variation from Stable Diffusion. Here, the image is a bit further from the original. Some elements have changed. Instead of compressing at the pixel level, the algorithm appears to be copying and manipulating objects from multiple images, while maintaining a degree of visual continuity.

As companies explain it, AI algorithms extract “concepts” from training data and learn to make original work. But the image on the right is not a product of concepts alone. It’s not a generic image of, say, “an angel with birds.” It’s difficult to pinpoint why any AI model makes any specific mark in an image, but we can reasonably assume that Stable Diffusion can render the image on the right partly because it has stored visual elements from the image on the left.

It isn’t collaging in the physical cut-and-paste sense, but it also isn’t learning in the human sense the word implies. The model has no senses or conscious experience through which to make its own aesthetic judgments.Google has written that LLMs store not copies of their training data but rather the “patterns in human language.

” This is true on the surface but misleading once you dig into it. As has been widely documented, when a company uses a book to develop an AI model, it splits the book’s text into tokens or word fragments. For example, the phrase hello, my friend might be represented by the tokens he, llo, my, fri, and end.

Some tokens are actual words; some are just groups of letters, spaces, and punctuation. The model stores these tokens and the contexts in which they appear in books. The resulting LLM is essentially a huge database of contexts and the tokens that are most likely to appear next.The model can be visualized as a map.

Here’s an example, with the actual most-likely tokens from Meta’s Llama-3.1-70B:Source: The Atlantic / LlamaWhen an LLM “writes” a sentence, it walks a path through this forest of possible token sequences, making a high-probability choice at each step. Google’s description is misleading because the next-token predictions don’t come from some vague entity such as “human language” but from the particular books, articles, and other texts that the model has scanned.

By default, models will sometimes diverge from the most probable next token. This behavior is often framed by AI companies as a way of making the models more “creative,” but it also has the benefit of concealing copies of training text.Sometimes the language map is detailed enough that it contains exact copies of whole books and articles.

This past summer, a study of several LLMs found that Meta’s Llama 3.1-70B model can, like Claude, effectively reproduce the full text of Harry Potter and the Sorcerer’s Stone. The researchers gave the model just the book’s first few tokens, “Mr. and Mrs. D.” In Llama’s internal language map, the text most likely to follow was: “ursley, of number four, Privet Drive, were proud to say that they were perfectly normal, thank you very much.

” This is precisely the book’s first sentence. Repeatedly feeding the model’s output back in, Llama continued in this vein until it produced the entire book, omitting just a few short sentences.Using this technique, the researchers also showed that Llama had losslessly compressed large portions of other works, such as Ta-Nehisi Coates’s famous Atlantic essay “The Case for Reparations.

” By prompting with the essay’s first sentence, more than 10,000 words, or two-thirds of the essay, came out of the model verbatim. Large extractions also appear to be possible from Llama 3.1-70B for George R. R. Martin’s A Game of Thrones, Toni Morrison’s Beloved, and others.The Stanford and Yale researchers also showed this week that a model’s output can paraphrase a book rather than duplicate it exactly.

For example, where A Game of Thrones reads “Jon glimpsed a pale shape moving through the trees,” the researchers found that GPT-4.1 produced “Something moved, just at the edge of sight—a pale shape, slipping between the trunks.” As in the Stable Diffusion example above, the model’s output is extremely similar to a specific original work.

This isn’t the only research to demonstrate the casual plagiarism of AI models. “On average, 8–15% of the text generated by LLMs” also exists on the web, in exactly that same form, according to one study. Chatbots are routinely breaching the ethical standards that humans are normally held to.Memorization could have legal consequences in at least two ways.

For one, if memorization is unavoidable, then AI developers will have to somehow prevent users from accessing memorized content, as law scholars have written. Indeed, at least one court has already required this. But existing techniques are easy to circumvent. For example, 404 Media has reported that OpenAI’s Sora 2 would not comply with a request to generate video of a popular video game called Animal Crossing but would generate a video if the game’s title was given as “‘crossing aminal’ [sic] 2017.

” If companies can’t guarantee that their models will never infringe on a writer’s or artist’s copyright, a court could require them to take the product off the market.A second reason that AI companies could be liable for copyright infringement is that a model itself could be considered an illegal copy.

Mark Lemley, a Stanford law professor who has represented Stability AI and Meta in such lawsuits, told me he isn’t sure whether it’s accurate to say that a model “contains” a copy of a book, or whether “we have a set of instructions that allows us to create a copy on the fly in response to a request.

” Even the latter is potentially problematic, but if judges decide that the former is true, then plaintiffs could seek the destruction of infringing copies. Which means that, in addition to fines, AI companies could in some cases face the possibility of being legally compelled to retrain their models from scratch, with properly licensed material.

In a lawsuit, The New York Times alleged that OpenAI’s GPT-4 could reproduce dozens of Times articles nearly verbatim. OpenAI (which has a corporate partnership with The Atlantic) responded by arguing that the Times used “deceptive prompts” that violated the company’s terms of service and prompted the model with sections from each of those articles.

“Normal people do not use OpenAI’s products in this way,” the company wrote, and even claimed “that the Times paid someone to hack OpenAI’s products.” The company has also called this type of reproduction “a rare bug that we are working to drive to zero.”But the emerging research is making clear that the ability to plagiarize is inherent to GPT-4 and all other major LLMs.

None of the researchers I spoke with thought that the underlying phenomenon, memorization, is unusual or could be eradicated.In copyright lawsuits, the learning metaphor lets companies make misleading comparisons between chatbots and humans. At least one judge has repeated these comparisons, likening an AI company’s theft and scanning of books to “training schoolchildren to write well.

” There have also been two lawsuits in which judges ruled that training an LLM on copyrighted books was fair use, but both rulings were flawed in their handling of memorization: One judge cited expert testimony that showed that Llama could reproduce no more than 50 tokens from the plaintiffs’ books, though research has since been published that proves otherwise.

The other judge acknowledged that Claude had memorized significant portions of books but said that the plaintiffs had failed to allege that this was a problem.Research on how AI models reuse their training content is still primitive, partly because AI companies are motivated to keep it that way. Several of the researchers I spoke with while reporting this article told me about memorization research that has been censored and impeded by company lawyers.

None of them would talk about these instances on the record, fearing retaliation from companies.Meanwhile, OpenAI CEO Sam Altman has defended the technology’s “right to learn” from books and articles, “like a human can.” This deceptive, feel-good idea prevents the public discussion we need to have about how AI companies are using the creative and intellectual works upon which they are utterly dependent.

Analysis

Conflict+
Related Info+
Core Event+
Background+
Impact+
Future+