Paris, le 24 janvier 2025 – Coup de théâtre dans le bras de fer qui oppose OpenAI, la maison-mère de ChatGPT, et l’agence de presse indienne ANI (Asian News International). Lors d’une audience le 22 janvier devant un tribunal indien, OpenAI a déclaré ne pouvoir supprimer les données d’entraînement d’ANI, arguant d’obligations légales américaines. Une situation complexe qui met en lumière les tensions grandissantes autour de la propriété intellectuelle et des données à l’ère de l’intelligence artificielle.
L’affaire a débuté avec la plainte déposée par ANI contre OpenAI. L’agence de presse accuse la firme américaine d’avoir utilisé sans autorisation ses contenus pour entraîner le modèle linguistique de ChatGPT. Une pratique qui, selon ANI, constitue une violation flagrante de ses droits d’auteur et représente une concurrence déloyale. On parle ici de l’ingestion massive de données textuelles par l’IA, un processus essentiel à son apprentissage et à sa capacité à générer du texte.
OpenAI, dans son mémoire du 10 janvier, se défend en invoquant un litige en cours aux États-Unis concernant les données d’entraînement de ses modèles. Selon l’entreprise, la justice américaine exigerait la conservation de ces données pendant toute la durée de la procédure judiciaire. « Nous sommes légalement tenus de préserver l’intégrité de nos jeux de données d’entraînement pour les besoins de l’enquête, » aurait déclaré un représentant d’OpenAI, sans préciser la nature exacte du litige américain.
Ce bras de fer juridique met en exergue un conflit croissant entre les législations nationales et les pratiques des géants du numérique. Alors que l’Inde, comme de nombreux pays, cherche à renforcer la protection de ses données, les entreprises américaines se retrouvent parfois prises entre le marteau et l’enclume, tiraillées entre différentes obligations légales. Cette situation pose la question de la souveraineté des données et du pouvoir des juridictions nationales face aux multinationales.
Un précédent inquiétant pour l’écosystème de l’IA
L’enjeu dépasse largement le simple cas d’ANI. Cette affaire pourrait créer un précédent et influencer la manière dont les données sont utilisées pour l’entraînement des intelligences artificielles. Si OpenAI obtient gain de cause, cela pourrait encourager d’autres entreprises à exploiter des données protégées, en se réfugiant derrière des obligations légales étrangères. À l’inverse, une décision en faveur d’ANI pourrait contraindre les entreprises à revoir leurs méthodes d’entraînement et à privilégier des données sous licences, ce qui aurait un impact sur le coût et la rapidité du développement de l’IA.
Le flou juridique autour des données d’entraînement
Au cœur du débat se trouve la question du statut juridique des données utilisées pour l’entraînement des IA. S’agit-il d’une simple copie, comparable à une citation, ou d’une utilisation transformative qui crée une nouvelle œuvre ? La jurisprudence sur ce point est encore balbutiante, et l’issue de ce procès pourrait avoir des conséquences majeures sur l’avenir du secteur.
La pression monte sur les régulateurs
Cet incident met également en lumière l’urgence de mettre en place un cadre réglementaire international pour encadrer l’utilisation des données dans le domaine de l’IA. Des initiatives comme le « Generative AI Copyright Disclosure Act of 2024 » aux États-Unis vont dans ce sens, en exigeant plus de transparence sur les données d’entraînement. Mais face à la rapidité des avancées technologiques et à la complexité des enjeux, la coopération internationale est plus que jamais nécessaire pour éviter un vide juridique propice aux abus et garantir la confiance du public dans ces technologies transformantes. L’affaire OpenAI/ANI pourrait bien être le catalyseur d’une telle prise de conscience.