Intelligence artificielle : de nouvelles missions pour l’avocat
Le paysage réglementaire européen de l'intelligence artificielle (IA) a franchi un cap décisif avec l’entrée en vigueur, le 1er août 2024, du règlement européen sur l’intelligence artificielle (l’IA Act). Brad Spitz, avocat associé du cabinet REALEX, nous éclaire sur la manière dont les avocats, qu’ils soient spécialisés ou plus généralistes, se préparent à accompagner leurs clients dans cette transformation incontournable.
Un cadre juridique strict encadre désormais l’utilisation de l’intelligence artificielle en Europe. L’IA Act offre aux professionnels du droit des directives, et impose des règles contraignantes à leurs clients. Bien sûr, avant même l’IA Act et en dehors du champ d’application de ce texte, l’intelligence artificielle bouleverse le quotidien des entreprises, conduisant l’avocat à accompagner ses clients dans les différentes activités impactées.
Pour les avocats spécialisés : la mise en conformité des clients à l’IA Act et au RGPD
L'IA Act et le Règlement Général sur la Protection des Données (RGPD) se complètent en couvrant différents aspects de la gouvernance de la donnée et de l'intelligence artificielle. Cela conduit à élargir les missions des professionnels du droit intervenant dans ces domaines. Ainsi, les avocats spécialisés dans le droit de l’informatique et du numérique, et ceux qui interviennent en droit des données à caractère personnel (déjà en charge d’accompagner les entreprises pour assurer leur conformité en matière de protection des données à caractère personnel), sont au premier rang pour travailler avec les entreprises sur ces problématiques.
L’IA Act impose des règles destinées à assurer une utilisation de l’intelligence artificielle éthique, sûre et respectueuse des droits fondamentaux. Il est impératif pour toute entité, quelle que soit sa taille, opérant ou concevant des systèmes d'intelligence artificielle en Europe, de se conformer aux dispositions de l'IA Act. Pour assurer cette conformité, il est nécessaire de suivre plusieurs étapes clés qui impliquent l'expertise d'un avocat spécialisé dans ce domaine. De nombreuses mesures doivent en effet être mises en place. Pour n’en citer que quelques-unes : l’identification du régime réglementaire applicable, l’évaluation de l'impact sur la protection des données, la mise en place d'un système de gouvernance de l'IA, la documentation et la traçabilité des phases du cycle de vie des systèmes d'IA, la formation et la sensibilisation des collaborateurs mais aussi des dirigeants, etc.
Tout cela semble titanesque, mais les outils de pilotage destinés à aider à ce travail sont en cours de développement (et parfois déjà en bêta test), notamment par les éditeurs ayant déjà créé les outils de pilotage de la mise en conformité au RGPD. Les deux règlementations de conformité (IA Act et RGPD) étant liées, cela tombe très bien…
À noter : la CNIL propose des fiches pratiques sur son site qui seront très utiles aux praticiens.
Plus généralement, la nécessité pour les avocats d’accompagner les clients sur l’ensemble des problématiques liées à l’IA
Quid des autres avocats ? Ils auront aussi fort à faire pour accompagner les organismes, puisque l’IA envahit tous les aspects de leur activité.
Dans le domaine de la création, par exemple, les entreprises envisageant d’utiliser un système d’IA dans le cadre de leur activité professionnelle, notamment pour faire évoluer des pratiques de création, auront besoin de conseils pour analyser (et, quand cela est possible, négocier) la documentation contractuelle (contrats et licences) des prestataires proposant des solutions de création de contenus à l’aide d’un système d’intelligence artificielle, afin de vérifier :
- les questions concernant la responsabilité des prestataires (qui est responsable, dès lors que le contenu ou l’œuvre créée à partir d’œuvres préexistantes est contrefaisante ?) ;
- les problématiques relatives à la titularité des droits sur les contenus générés à l’aide de ces solutions (qui est titulaire des droits : les auteurs dont les œuvres ont été utilisées pour entrainer la machine ? L’agence de publicité ? L’éditeur de la solution d’IA ? Et quels contrats de cession avec les salariés et prestataires de l’entreprise ?) ;
- les conditions contractuelles (et éventuellement le choix parmi les licences proposées, ou tout simplement le paramétrage de l’outil) pour éviter que les contenus ou prompts du client soient à leur tour utilisés par la machine…
L’avocat pourra également accompagner ses clients pour assurer la sécurité des biens informationnels et la protection des informations confidentielles et des données personnelles (ce qui rejoint le premier point) dans le cadre de l’utilisation, notamment par les collaborateurs, des systèmes d’IA, à commencer, tout simplement, par ChatGPT. Un exemple très simple pour illustrer le risque : des employés de Samsung ont involontairement généré une fuite de données très confidentielles en utilisant ChatGPT pour créer une présentation. Et il s’agit d’une pratique malheureusement courante en entreprise. Des solutions existent pour limiter ces risques : rappeler aux clients l’existence d’alternatives techniques (par exemple se connecter à son navigateur avec un compte professionnel garantissant que les données saisies ne seront pas utilisées pour entrainer l’IA) et sensibiliser les collaborateurs pour qu’ils n’utilisent pas d’informations ou de données personnelles dans les outils d’IA (par exemple, l’avocat lui-même ne mettra pas les noms des parties pour créer un projet de contrat avec l’IA, mais « Société prestataire » et « Société cliente »).
Bref, comme toujours, l’avocat, est là pour accompagner ses clients pour s’adapter aux changements ! Il s’agit simplement d’un nouveau défi (certes de taille) à relever pour les avocats, appelés à devenir les pilotes stratégiques de l'implémentation de ces nouvelles règles et des pratiques commerciales et technologiques en développement.