Blog ENI : Toute la veille numérique !
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici
💥 Du 22 au 24 novembre : Accès 100% GRATUIT
à la Bibliothèque Numérique ENI. Je m'inscris !

État des lieux et recommandations

Introduction

Plusieurs pistes sont envisageables pour adapter le droit des contrats aux problématiques de l’IA, et notamment :

  • l’élaboration de chartes éthiques dans les contrats portant sur l’IA,

  • l’instauration de référentiels de sécurité et d’interopérabilité,

  • l’encadrement de l’entraînement de l’intelligence artificielle,

  • la création d’une personnalité juridique pour l’IA.

Élaboration de chartes éthiques dans les contrats portant sur l’IA

En lien avec notre développement sur l’éthique de l’IA et à l’instar du constat effectué par le livre blanc de la Commission Européenne1, il apparaît nécessaire de prévoir un cadre éthique robuste pour développer et conserver la confiance des citoyens face à l’IA.

Pour ce faire, les contrats portant sur l’IA devraient systématiquement contenir une charte éthique. Dans ce document, devraient figurer les engagements pris par les concepteurs de l’IA. Concrètement, un tel document comprendrait les finalités éthiques de l’IA commercialisée, les déclinaisons concrètes du principe de loyauté qui lui sont appliquées et des engagements relatifs à l’obligation de transparence. Évidemment, cette charte éthique devrait imposer une interdiction d’utilisation en cas de non respect, permettant ainsi à l’ensemble de la chaîne (concepteur, prestataire, fournisseur, utilisateur final) de se conformer à ses engagements.

Pour ce faire, les acteurs peuvent s’appuyer sur des chartes déjà existantes et les adapter à leur projet. À ce titre, signalons l’existence d’une charte éthique européenne d’utilisation...

L’instauration de référentiels de sécurité et d’interopérabilité

Les questions relatives à la sécurité de l’intelligence artificielle figurent parmi les préoccupations principales des acteurs du monde de l’IA. Dans le détail, la sécurité de l’IA revêt en réalité une double dimension : interne, avec la problématique de sa fiabilité et externe, avec les enjeux sécuritaires liés à son utilisation.

Dès lors, la contractualisation de l’IA nécessite une prise en compte adéquate de cette thématique, c’est d’autant plus vrai que la réglementation actuelle ne permet pas d’encadrer les problèmes de sécurité propres à l’intelligence artificielle3.

Pour pallier cette absence de réglementation, la solution consiste notamment à adopter des référentiels de sécurité et d’interopérabilité. Idéalement, ces documents devront être certifiés par des organismes indépendants et qui répondent à un haut niveau de compétence. Ces référentiels imposeront des normes de sécurité et d’interopérabilité claires auxquelles l’IA devra se conformer. Concrètement...

L’encadrement de l’entraînement de l’intelligence artificielle

Un autre aspect fondamental qui échappe totalement à la réglementation réside dans la phase d’entraînement de l’IA. Comme cela a déjà été rappelé, la conception d’une IA, impose la mise au point d’un entraînement basé sur un jeu de données. C’est un point crucial puisque cela détermine in fine les capacités de l’IA. Or, au-delà de la problématique relative à la propriété des données, il existe des enjeux contractuels liés à la responsabilité en cas de présence de données erronées ou trop peu nombreuses pour satisfaire aux exigences de sécurité des produits.

Il apparaît donc nécessaire d’établir des normes relatives à l’entraînement de l’IA. Cela permettrait notamment de prévenir les biais cognitifs et discriminatoires potentiellement présents dans les input ou implémentés dans le codage du système d’IA. Ces normes pourraient par exemple exiger l’utilisation d’une quantité minimum de données ainsi que des mesures techniques ou organisationnelles permettant d’éviter les biais précédemment mentionnés....

La création d’une personnalité juridique pour l’IA

Enfin, sortant des recommandations directement applicables et en élargissant ce développement à des solutions d’avenir, il est possible d’imaginer que le législateur dote à terme l’IA d’une personnalité juridique, c’est-à-dire que la loi lui confère l’aptitude à être sujet de droit.

Ainsi, dans la mesure où l’IA dispose déjà d’une définition acceptée par tous et qu’il est possible de matérialiser ses effets, une des solutions pour sécuriser la contractualisation de l’IA serait de la doter d’une personnalité juridique. En lui conférant un statut, la question de la responsabilité, qui implique la rédaction de clauses contractuelles spécifiques et qui doivent être exhaustives, pourrait être partiellement résolue.

Cette idée n’est pas qu’une simple fiction : à travers le monde, plusieurs états tendent déjà vers cet objectif. Au sein de l’Union Européenne, l’Estonie souhaite ainsi accorder un statut légal à l’intelligence artificielle4. Précisément, il s’agirait d’octroyer à l’IA un statut hybride entre celui de personne physique...

Notes

1 Livre Blanc de la Commission Européenne, « Intelligence artificielle. Une approche axée sur l’excellence et la confiance », 19, fév. 2020, https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf.

2Commission Européenne pour l’efficacité de la justice, « Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement », 3-4 décembre 2018, https://rm.coe.int/charte-ethique-fr-pour-publication-4-decembre-2018/16808f699b

3 Le livre blanc sur l’intelligence artificielle de la Commission Européenne, déjà mentionné supra, constatait avec regret que les règles de sécurité de l’union ne sont pas assez précises et contiennent un sérieux risque de distorsion de concurrence en faussant le jeu de la responsabilité des acteurs. (cf. Livre Blanc de la Commission Européenne… op. cit. https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf.

4 Sur ce sujet, cf. E. GARESSUS, « Les robots obtiendront leur propre statut juridique », Le Temps, 16 oct. 2017, https://www.letemps.ch/economie/robots-obtiendront-propre-statut-juridique.

5 Le 12 avril 2020 plus de 220 experts...