Actualités

Imprimer 03/07/2025 IP/IT- Données personnelles

COMMENT RÉPARER LES PRÉJUDICES ÉCONOMIQUES RÉSULTANT DE L’USAGE D’UN SYSTÈME D’IA - PUBLICATION D’UNE FICHE PAR LA COUR D’APPEL DE PARIS par Lucien MAURIN

Cette fiche examine comment réparer les dommages économiques résultant de l’utilisation d’un système d’intelligence artificielle (IA). Elle s’inscrit dans une logique prospective, car il n’existe pas encore de jurisprudence établie en la matière. Elle s’appuie principalement sur le Règlement (UE) 2024/1689 du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (dénommé « AI Act » ou RIA) ainsi que sur la Directive (UE) 2024/2853 du 23 octobre 2024 relative à la responsabilité du fait des produits défectueux. Ces textes marquent un tournant vers une régulation contraignante de l’IA en Europe.

1. L’évolution du cadre juridique de l’IA

Jusqu’à récemment, les systèmes d’IA étaient régulés principalement par des codes de bonne conduite et des principes éthiques, dans une logique d’autorégulation. Cette approche a laissé place à un encadrement législatif structuré, notamment à l’échelle européenne, pour faire face aux risques croissants posés par ces technologies.

Le Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024, intitulé « Règlement établissant des règles harmonisées concernant l’intelligence artificielle » (AI Act), constitue le premier texte horizontal de portée générale sur l’IA.

Ce règlement repose sur une logique de gestion des risques. Il distingue plusieurs niveaux :

Systèmes d’IA à risque inacceptable : strictement interdits.

Systèmes d’IA à haut risque : autorisés mais soumis à des obligations lourdes.

Systèmes à risque limité ou minimal : encadrement plus souple.

Il prévoit également un régime spécifique pour les modèles d’IA à usage général, y compris les IA génératives. Lorsque ces modèles présentent des risques systémiques (par exemple, lorsqu’ils nécessitent une puissance de calcul supérieure à 10²⁵ opérations en virgule flottante, cf. article 51 du RIA), ils sont soumis à des obligations supplémentaires.

Le règlement a une portée extraterritoriale (article 2), ce qui signifie qu’il s’applique aux acteurs non européens dès lors qu’ils ciblent le marché de l’Union.

---

2. Les risques et les préjudices couverts

Selon l’article 3, paragraphe 2 du RIA, un risque est défini comme « la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci ». Le risque systémique (art. 3, §65) désigne un risque à fort impact pouvant affecter l’ensemble de la chaîne de valeur.

L’IA peut entraîner des préjudices variés :

Matériels : défaillance d’un outil ou d’un système autonome,

Immatériels : perte de données, préjudice moral,

Économiques : perte d’exploitation, désavantage concurrentiel,

Physiques ou psychologiques : erreur médicale, diagnostic erroné.

Ces préjudices sont réparables dans le cadre du droit civil ou selon les régimes spéciaux mis en place.

---

3. Qui est responsable ?

L’idée d’attribuer une personnalité juridique à l’IA (comme aux personnes morales) a été officiellement abandonnée, notamment par le Parlement européen (Résolution 2015/2103(INL) du 16 février 2017 sur la robotique). Le système d’IA ne peut donc jamais être tenu personnellement responsable.

La responsabilité repose sur les acteurs humains :

Le fournisseur : développe et met l’IA sur le marché (RIA, art. 4, §3).

Le déployeur ou utilisateur professionnel : utilise l’IA dans son activité (RIA, art. 3, §4)

---

4. Les régimes de responsabilité applicables

4.1. La responsabilité pour faute (Articles 1240 et 1241 du Code civil)

Tout fait fautif (même une simple négligence) engage la responsabilité de son auteur si un dommage en découle. Cela nécessite trois éléments :

- Une faute (y compris le non-respect d’une obligation prévue par le RIA),

- Un préjudice certain,

- Un lien de causalité entre les deux.

Difficulté spécifique aux systèmes d’IA : l’effet boîte noire rend souvent la preuve du lien de causalité complexe. C’est pourquoi la Proposition de directive COM(2022) 496 final du 28 septembre 2022 envisageait une présomption réfragable de causalité. Bien que retirée du programme législatif européen en février 2025, cette proposition illustre une tendance vers des facilitations probatoires (présomptions judiciaires, injonctions de communication de preuve).

4.2. La responsabilité du fait des choses (Article 1242 du Code civil)

Lorsqu’un dommage est causé par un système d’IA considéré comme une « chose », son gardien peut être tenu responsable, sans qu’une faute soit nécessaire.

Il peut s’agir :

- Du déployeur, qui a la maîtrise de l’usage concret de l’IA,

- Du fournisseur, responsable de la conception ou de la programmation.

Il est possible de distinguer :

- La garde de la structure (architecture technique),

- La garde du comportement (décisions prises par l’IA).

4.3. La responsabilité du fait des produits défectueux

(Directive (UE) 2024/2853 du 23 octobre 2024, transposition attendue pour le 9 décembre 2026)

Cette directive remplace la directive 85/374/CEE. Elle élargit les définitions :

Le produit comprend désormais les logiciels, fichiers numériques, données, composants immatériels (art. 4, §1),

Le composant peut être un service connexe ou un élément interconnecté (art. 4, §4).

Elle introduit aussi :

- Des présomptions de défectuosité et de lien de causalité (art. 10),

- Une injonction de communication de preuves pour aider les victimes.

Ce régime bénéficie exclusivement aux particuliers, pour tous types de dommages, y compris immatériels (comme la perte de données).

4.4. La responsabilité en matière de propriété intellectuelle

Les IA sont entraînées à partir de grandes bases de données, parfois composées d’éléments protégés (textes, musiques, images…).

La Directive (UE) 2019/790 du 17 avril 2019 (dite « directive sur le droit d’auteur dans le marché unique numérique ») prévoit à l’article 4 une exception de fouille de textes et de données (text and data mining – TDM), sous deux conditions :

L’accès aux contenus doit être licite,

Le titulaire de droits n’a pas exercé son opt-out (clause de réserve).

Toute reproduction d’un contenu protégé par l’IA peut constituer une contrefaçon (CPI, art. L.122-5). Si la reprise concerne uniquement le style ou une ambiance, on pourrait envisager des actions pour concurrence déloyale ou parasitisme (cf. fiches 12a et 12b de l’INPI).

Enfin, l’article 53 du RIA impose aux fournisseurs d’IA de rendre public un résumé détaillé des contenus utilisés pour entraîner leurs modèles, dans un souci de transparence.

Conclusion

Le développement rapide de l’IA exige une adaptation constante du droit. En l’absence de jurisprudence établie, les textes européens récents (RIA, directive sur les produits défectueux, directive droit d’auteur) posent les fondations d’un régime cohérent de responsabilité. Celui-ci repose sur le droit commun, enrichi de mécanismes spécifiques facilitant la preuve et répartissant les responsabilités entre les acteurs de la chaîne IA.

L’enjeu principal demeure la capacité des juridictions à adapter les règles classiques aux nouveaux défis techniques et à garantir une réparation effective aux victimes.


#ia #intelligenceartificielle #prejudice #reparation #lawprofiler #ip