Les chambres de recours de l’OEB ont confirmé que seules des personnes physiques pouvaient être désignées comme inventeurs dans une demande de brevet européen même si des algorithmes d’intelligence artificielle étaient impliqués. Or cette question nous semble en occulter une autre bien plus pertinente : celle de la brevetabilité des inventions dans le domaine de l’IA. En effet ces inventions sont nombreuses, et pouvoir les protéger efficacement est une nécessité stratégique.

Paris, le 31 janvier 2022 – Les chambres de recours de l’OEB ont confirmé que seules des personnes physiques pouvaient être désignées comme inventeurs dans une demande de brevet européen même si des algorithmes d’intelligence artificielle étaient impliqués.

Serait-ce enfin l’occasion de laisser de côté les questions d’inventeurs IA, certes intellectuellement plaisantes mais d’un intérêt pratique aujourd’hui faible, pour revenir aux questions plus urgentes de brevetabilité des inventions dans le domaine de l’IA ?

Le nombre de dépôt de demandes de brevet devant l’OEB sur les techniques d’intelligence artificielle ou leurs applications connait en effet une hausse annuelle moyenne de 50% sur les vingt dernières années, et la tendance n’est pas près de s’inverser.

1. Décisions J8/20 et J9/20

Le 21 décembre 2021, à l’issue d’une procédure orale commune aux affaires J8/20 et J9/20, la chambre de recours a rejeté les recours formés par Stephen L. Thaler et confirmé les décisions de première instance de rejet des demandes de brevet européen EP 18 275 163 et EP 18 275 174 ayant désigné comme seul inventeur le modèle d’intelligence artificielle DABUS (Device for the Autonomous Bootstrapping of Unified Sentience).

A noter que la chambre a également rejeté une requête auxiliaire dans laquelle personne n’avait été spécifiquement désigné comme inventeur (hormis une citation de Stephen L. Thaler comme ayant « the right to the European Patent by virtue of being the owner and creator of » DABUS).

L’OEB consacre ainsi dans sa jurisprudence que seules des personnes physiques peuvent être désignées comme inventeurs dans une demande de brevet européen même si des modèles d’intelligence artificielle sont impliqués.

On comprend que la chambre a répondu d’un point de vue purement juridique. Elle s’est en effet seulement appuyée sur les éléments suivants :

  • L’article 81 CBE prévoit que « La demande de brevet européen doit comprendre la désignation de l’inventeur. Si le demandeur n’est pas l’inventeur ou l’unique inventeur, cette désignation doit comporter une déclaration indiquant l’origine de l’acquisition du droit au brevet européen »
  • Un inventeur doit avoir la capacité juridique
  • Une machine ne peut transmettre aucun droit.

Cette approche découle de la règle 19(2) CBE qui prévoit que « L’Office européen des brevets ne contrôle pas l’exactitude de la désignation de l’inventeur ».
En d’autres termes, la chambre n’a pas la capacité d’examiner si DABUS a en pratique inventé quoi que ce soit.

Et même si elle avait la capacité de le faire, il n’y a pas d’éléments tangibles dans les demandes sur la contribution de DABUS.

Le comité aux technologies de l’information et de la communication de l’EPI (ICT subcommitee) le dénonce d’ailleurs explicitement en décembre 2020 :

“However, the contribution of the machine has in no way been explained/reasoned about and appears spurious. It is not discussed in the DABUS specification, how the purported invention was devised. If it really was by the machine, there is no explanation to that extent in the patent specification nor has it been given throughout the procedure.”

C’est le moment de poser la question que tout le monde se pose : dans l’absolu une IA a-t-elle réellement la capacité d’inventer de manière autonome ?

2. DABUS et l’état de l’intelligence artificielle

Ne faisons pas durer le suspense, même si la question provoque quelques frissons, aujourd’hui la réponse est non.

Dans un rapport de février 2019 rédigé par le docteur Noam Shemtov pour le compte de l’OEB, cela est reconnu sans ambiguïté :

« It is therefore first necessary to refute some myths in this context and distinguish between science and science fiction. While it is undeniable that the science and technology behind AI systems has made significant progress in the last few years, we are not yet even close to reaching the level of human intelligence by artificial means. As to when such level is expected to be reached, a recent survey of leading industry AI experts suggests that about 90% of them hold the view that we should be able to reach such a level by 2075. Thus, the majority expert view on this matter is that it may take about half a century for the level of human intelligence to be emulated by artificial means”.

Ce rapport regarde vers le futur, et vise à éprouver le cadre juridique actuel.

Aujourd’hui, les capacités de l’IA restent limitées.

Le public confond souvent « intelligence artificielle » et « apprentissage automatique » (machine learning).

L’intelligence artificielle émerge dès les années 1950 et désigne de façon vague l’idée de « simuler l’intelligence humaine ». En soi, n’importe quel processeur moderne est une fraction d’intelligence artificielle.
Le machine learning en est une sous-partie, et désigne les mécanismes permettant de donner aux ordinateurs la capacité d’« apprendre » à partir de données, c’est-à-dire d’améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. On se rapproche ici de ce qu’on entend par « intelligence humaine », dans la mesure où la machine progresse en autonomie.

Dans un scénario classique (dit d’apprentissage supervisé), une IA est entraînée à retrouver une fonction f telle que f(x)=y sur un ensemble de données {xi,yi}1≤i≤n dites « données d’apprentissage ». On applique un algorithme de machine learning F à l’ensemble de données {xi,yi}1≤i≤n dont la sortie est un modèle appliquant une fonction f’ approximant la fonction f.

Mathématiquement, on a F({xi,yi}1≤i≤n)=f’ n→∞→ f

L’intérêt de l’IA est que la fonction f est potentiellement inconnue ou du moins difficile à expliciter. Par exemple, dans un scénario d’analyse d’image, f peut être une fonction de détection renvoyant en sortie y les coordonnées de boites de détection d’objets d’intérêt visible sur une image d’entrée x, ce que l’on ne sait pas coder algorithmiquement. Par contre, il est simple d’entraîner un réseau de neurones à appliquer une fonction f’ approximant f.

Sur un certain nombre de tâches, un modèle d’IA correctement entraîné a des performances excellentes, bien meilleures que celles des humains et des algorithmes « non-appris ».

On comprend toutefois aisément qu’un tel modèle d’IA n’est rien de plus qu’un outil, au même titre qu’un processeur, certes très affuté :
(1) il ne sait mettre en œuvre que la tâche pour laquelle il a été entraîné,
(2) il est conçu spécifiquement par un humain en vue d’accomplir cette tâche,
(3) il est entièrement déterminé par son apprentissage, et donc intègre aveuglément les éventuels « biais » de sa base d’apprentissage.

Un exemple de biais dans l’apprentissage automatique est celui du modèle COMPAS utilisé pour calculer un score de risque de récidive d’un détenu (en vue d’autoriser ou non une libération conditionnelle), prenant en entrée le résultat à 137 questions sur le détenu. On demande par exemple si l’un des parents du détenu a déjà été emprisonné ou si des amis ou des connaissances ont été emprisonnés.

On a constaté que ce modèle présentait un biais racial : sur un échantillon de test, le taux de délinquants jugés à tort récidivistes était de 40% pour les noirs et de 27% pour les blancs.

Si bien évidemment une IA ne peut pas être raciste, ses données d’apprentissage peuvent en porter la marque, d’où le biais constaté. En l’espèce, COMPAS s’avère surpondérer un faible nombre de critères parmi les 137, qui eux-mêmes trahissent des inégalités raciales.

DABUS va plus loin. Au vu de ce que l’on en sait, il est plus précisément composé de deux modules IA qui sont des réseaux de neurones travaillant ensemble selon une architecture de type GAN (« réseaux adverses génératifs »).
Il s’agit un modèle génératif où les deux réseaux sont placés en compétition dans un scénario de théorie des jeux. Le premier réseau est le générateur, il génère un échantillon synthétique (par exemple une image), tandis que son adversaire, le discriminateur, essaie de détecter si un échantillon est réel ou bien s’il est le résultat du générateur. Chacun des deux a accès à une base d’échantillon réels servant de référence.

On connait des GAN « artistiques » : partant par exemple d’une base dans laquelle les échantillons sont des tableaux, un GAN est capable de générer un nouveau tableau du même style, en prenant en entrée une entrée aléatoire appelée « graine », l’exemple le plus connu étant le Portrait d’Edmond de Belamy généré à partir de 15000 portraits depuis le moyen-âge.

On connait également les Deepfakes : le GAN prend en entrée un échantillon vidéo original représentant une première personne et des photos d’une deuxième personne, et le GAN génère un échantillon vidéo synthétique dans lequel la première personne a été remplacée par la deuxième.

DABUS est un GAN spécifique en deux points :
(1) Les échantillons qu’il manipule sont des « idées », en l’espèce des liens chainés entre éléments d’informations auxquels il a accès (des entrées d’une encyclopédie notamment). Le générateur propose ainsi des nouvelles idées et tente de leurrer le discriminateur.

(2) Le discriminateur non seulement essaie de détecter si une idée qu’on lui soumet est réelle ou bien une nouvelle idée du générateur, mais met en œuvre de l’apprentissage « par renforcement » en évaluant une « utilité » de la nouvelle idée. Le principe de l’apprentissage par renforcement est d’apprendre les actions à prendre, à partir d’expériences, de façon à optimiser une récompense quantitative au cours du temps. En d’autres termes, par contraste avec des GANs plus basiques dans lequel le générateur ne fait qu’enchaîner des entrées aléatoires, DABUS « optimise » son entrée de sorte que l’utilité de la sortie croisse.

Ainsi, DABUS est capable de faire émerger de nouvelles idées qui à la fois sont passées par le filtre du discriminateur et ont présenté la meilleure utilité.

Par exemple, l’idée « brosse à dent » pourrait être proposée par le générateur s’il renvoyait la chaîne de liens « hog whiskers->embedded in->bamboo stalk », qui entraînerait la formation par le discriminateur de la chaîne de conséquences “scrape teeth->remove food->limit bacteria->avoid tooth decay” dont la dernière présente une utilité suffisante pour que l’idée soit conservée.

Stephen L. Thaler soutient ainsi que DABUS invente comme un humain :

« Arguably, DABUS may be considered “sentient” in that any chain-based concept launches a series of memories (i.e., affect chains) that sometimes terminate in critical recollections, thereby launching a tide of artificial molecules. It is these associated memory sequences, and the accompanying simulated neurotransmitter rush, that are considered equivalent to subjective feelings in humans (i.e., sentience). In this way, DABUS has an emotional appreciation for what it conceives.”

Il importe à ce stade de faire immédiatement une mise au point : DABUS n’a pas de sentiments. Et les « neurotransmetteurs » mentionnés ne sont qu’une façon sophistiquée de présenter la récompense à optimiser dans l’apprentissage par renforcement.

Et surtout, DABUS ne peut pas « penser » avoir inventé quoi que soit : c’est le principe des GANs !

En effet, on rappelle que seules les idées que le discriminateur a estimé ne pas être des nouvelles idées sont acceptées. Dès lors qu’une idée est « trop originale » et s’écarte de la base d’échantillons réels, le discriminateur va la rejeter. En effet, la raison d’être du discriminateur est de « canaliser » le générateur, en ne le laissant générer que des échantillons plausibles.

Un GAN n’est ainsi créatif que dans les limites de sa base d’échantillons réels. Et à nouveau, si la base présente des biais, les échantillons synthétiques les présenteront automatiquement. Par exemple, si l’on reprenait le GAN ayant synthétisé le Portrait d’Edmond de Belamy, mais en ne gardant dans la base d’apprentissage que les portraits réels regardant vers la gauche, alors il ne pourrait que synthétiser des portraits regardant vers la gauche.

Ainsi, DABUS renvoie certes en sortie des « nouvelles idées » avec une « utilité » plutôt que des simples scores ou des images, mais on retrouve les mêmes limitations que celles de tout modèle d’IA évoquées avant :
(1) DABUS ne sait mettre en œuvre que la tâche pour laquelle il a été entraîné, à savoir générer une idée sous forme de liens chainés,
(2) il est conçu spécifiquement par un humain en vue d’accomplir cette tâche, notamment le choix central du critère d’utilité, et
(3) il est toujours entièrement contraint par sa base d’apprentissage.

Et tout cela va faire que DABUS, ou tout autre modèle IA actuel, ne peut être en aucun cas inventeur, contrairement à l’humain qui l’utilise adéquatement.

3. La notion d’inventeur

Comment définir un inventeur ?

Le dictionnaire Larousse nous indique que c’est une « Personne qui par son ingéniosité invente, imagine, créé quelque chose d’original », mais le Code de la propriété intellectuelle (et les textes équivalents pour les autres juridictions) n’en fournit aucune définition légale.

Selon une doctrine ancienne et établie, l’inventeur s’apprécie au regard des moyens qui constituent l’invention.

Selon Paul Mathély (Le droit français des brevets d’invention, Journal des notaires et des avocats, 1974, page 365) :
« A la qualité d’inventeur, celui qui conçoit, et réalise l’invention. L’invention consiste dans des moyens propres à procurer un résultat. Par conséquent, l’inventeur est celui qui découvre les moyens. Il s’ensuit que, poser un problème ou indiquer un but à atteindre n’est pas inventer, car ce n’est pas donner la solution. »

Selon la jurisprudence (TGI Paris, 1er février 2006, RG n° 05/03732) :
Doit être considéré comme inventeur toute personne ayant « un rôle essentiel dans l’analyse du problème à résoudre et dans la solution technique à y apporter »

Si ces définitions visaient avant tout à écarter des personnes revendiquant indument la qualité d’inventeur, elles nous donnent un éclairage inédit en ce qui concerne les inventions « d’origine IA ».

Plus précisément, on comprend que la notion d’inventeur est indissociable des notions de problème technique et de résultat :

  • L’inventeur cherche à résoudre un problème technique, et
  • L’inventeur constate qu’il obtient un résultat (la résolution de ce problème technique).

Pour reformuler, l’inventeur fait le lien entre les moyens qu’il a découverts et le problème technique. C’est celui qui prend conscience qu’il y a une invention.
C’est le fameux sentiment d’épiphanie, ou « Eureka ! ».

Ainsi, une personne qui tomberait sur une solution technique, mais qui passerait à côté du résultat qu’elle procure, n’est pas inventeur. C’est d’ailleurs pour cela qu’on peut obtenir un brevet sur une « nouvelle utilisation », pourtant inhérente, d’un composé connu.

Comme expliqué plus haut, un modèle IA ne fait que mettre en œuvre la tâche pour laquelle il a été entraîné. Et s’il parvient à retourner une « idée » qui s’avère prometteuse, c’est bien l’humain qui l’utilise qui va prendre conscience que cette idée est une invention, ce qui fait de lui le véritable inventeur.
Le rapport du Dr Shemtov évoqué plus haut conclut d’ailleurs fort justement que l’inventeur est l’humain qui :

“geared up the AI system towards producing the inventive output, taking decisions in relation to issues such as the choice of the algorithm employed, the selection of parameters and the design and choice of input data, even if the specific output was somewhat unpredictable”.

Pour revenir à DABUS, il n’a pas décidé un matin de prendre à bras le corps le problème du suremballage et contacté son CPI.

Non, il a probablement été amené à travailler sur les emballages par Stephen Thaler, en adaptant la base d’échantillons et/ou le critère d’utilité.

En conséquence, DABUS a produit un grand nombre d’idées, dont l’une a dû lier les concepts de « fractale de Koch » et de « conteneur alimentaire », par exemple la chaîne de liens « Koch fractal -> shaped -> food container wall ». Cette chaîne a dû entraîner les conséquences suivantes « couple walls -> hold together -> avoid packaging » qui a présenté une forte utilité.

Et c’est bien Stephen Thaler qui a identifié cette idée parmi probablement un grand nombre d’autres inexploitables, l’a conceptualisée, a compris qu’il était en face d’une invention d’intérêt, et a décidé de déposer une demande de brevet.
C’est ainsi lui l’inventeur, en utilisant DABUS comme outil.

4. Brevetabilité de l’IA

La question des inventions par l’IA nous semble en occulter une autre bien plus pertinente : celle des inventions dans le domaine de l’IA. En effet ces inventions sont nombreuses, et pouvoir les protéger est une nécessité stratégique. A ce titre, le nombre de dépôt de demandes de brevet sur les techniques d’intelligence artificielle ou leurs applications est en augmentation rapide.

Il y a maintenant plus de 3 ans, l’OEB a publié des premières directives à ce sujet (section G-II, 3.3.1), qui sont venues clarifier comment les principes établis de l’OEB en matière d’exclusion de la brevetabilité se transposent à l’intelligence artificielle.

Ces directives rappellent que les modèles IA restent, fondamentalement, des algorithmes mathématiques de nature purement abstraite, quelles que soient les données sur lesquelles ils sont entrainés, et donc que les principes établis en matière d’exclusion de la brevetabilité des méthodes mathématiques s’appliquent.

Par contre, elles ouvrent la porte de la brevetabilité aux applications des modèles IA dès lors qu’elles « répondent à une finalité technique », conformément au critère en vigueur pour les méthodes mathématiques en général.

Ces directives ont toutefois une définition très réductrice des applications possibles des modèles IA : il est expressément fait référence aux modèles et algorithmes « utilisés à des fins de classification, de partitionnement, de régression et de réduction de la dimensionnalité », et à la fin, il n’est même plus fait référence qu’aux « méthodes de classification » :
« Lorsqu’une méthode de classification répond à une finalité technique, les étapes consistant à générer les données d’entraînement et à entraîner le classificateur peuvent également contribuer au caractère technique de l’invention dans la mesure où ces étapes concourent à répondre à cette finalité technique. »

Or, la classification est aujourd’hui seulement une tâche parmi d’autres des modèles IA : par exemple rien que dans le domaine du traitement d’image, on a énormément de réseaux de neurones de détection, de segmentation, ou même de génération complète comme expliqué plus haut.

Par exemple, une méthode de génération d’images synthétiques peut tout à fait répondre à une finalité technique (par exemple pour renforcer une base d’apprentissage de sorte à améliorer la robustesse d’un modèle qui serait entraîné sur la base).

Les directives se transposent-elles à ces applications ?

En pratique oui, même si l’on est dans une zone grise. Des brevets européens semblent aujourd’hui pouvoir être délivrés pour toute méthode d’utilisation d’un modèle IA et d’entrainement du modèle IA, tant que l’on peut justifier de la finalité technique et que les critères habituels de la CBE sont vérifiés.

Même s’il n’y a donc pas de problème identifié pour le moment, une réécriture des directives reconnaissant la diversité des utilisations possibles de l’IA serait souhaitable pour dissiper toute ambigüité.

Les équipes de Regimbeau suivent de près ces problématiques et se tiennent naturellement à vos côtés pour vous accompagner dans la protection des inventions dans le domaine de l’IA.