Les entreprises ont de plus en plus recours à des outils reposant sur l’intelligence artificielle (ci-après “IA”) pour optimiser leurs activités, augmenter leur productivité ou encore améliorer leur compétitivité. A titre d’illustration, une société peut utiliser l’IA pour analyser des données de marché et prédire les tendances, pour automatiser le service client grâce à des chatbots, ou encore pour améliorer la précision de la détection des fraudes financières. Dans le secteur de la santé, l’IA peut par exemple être utilisée pour analyser des images médicales et aider au diagnostic médical. Parmi ces outils ou systèmes d’intelligence artificielle (ci-après “SIA”), ceux intégrant de l’IA générative (ci-après “outils d’IA générative”) connaissent un succès et un essor phénoménal dans tous les secteurs d’activité et quelle que soit la taille des entreprises.

 

Pour mémoire, l’IA générative repose sur des algorithmes qui permettent de générer, à partir de données d’apprentissage (ou d’entraînement), des contenus, tels que des images, des vidéos, de la musique, des textes,… en réponse à des demandes ou à des instructions formulées par un utilisateur (désignées également « requêtes », « invites », ou « prompts » en anglais). Un tel dispositif fonctionne sur des modèles d’apprentissage automatique (« Machine Learning ») pour créer ces contenus. Dans la dernière version du règlement européen sur l’intelligence artificielle (ou IA Act) telle qu’adoptée, les outils d’IA générative font partie des systèmes visés sous la terminologie de SIA à usage général.

 

S’il est aisé de comprendre l’engouement des entreprises et de leurs collaborateurs pour ce type d’outils, leur utilisation implique cependant des risques. Par conséquent, un certain nombre de points d’attention et de précautions s’imposent à tout organisme qui souhaite y avoir recours.

 

1. Outil d’IA générative et propriété intellectuelle

Parmi les risques encourus, il convient tout d’abord de citer les risques d’atteintes aux droits de propriété intellectuelle des tiers. En effet, un organisme peut être amené à utiliser les outils d’IA générative afin de créer du contenu textuel, visuel ou sonore par exemple, pouvant potentiellement porter atteinte à des droits de propriété intellectuelle de tiers. Ce risque peut apparaître du fait (i) de l’utilisation d’un contenu protégé qui aurait été intégré dans le prompt pour demander à l’IA de s’en inspirer pour une création ou encore (ii) du résultat généré par l’IA au regard des “banques de données” à partir desquelles elle “travaille”.

 

A cet égard, il est recommandé ce qui suit :

  • s’agissant de l’intégration de contenus dans les prompts, il est primordial, compte tenu des risques de contrefaçon, de vérifier que le contenu soumis est un contenu libre de droits ou que l’organisme dispose des autorisations nécessaires pour utiliser ledit contenu, étant précisé qu’il est recommandé de ne pas travailler à partir de contenus déjà existants, tout particulièrement de contenus appartenant à des concurrents, afin d’éviter également les risques de concurrence déloyale et de parasitisme ;
  • il est également préférable d’évider de demander à l’IA « de s’inspirer » du style d’un auteur dans les requêtes ;
  • en outre, la « captation » de créations réalisées par des tiers et disponibles sur les canaux publics de certains outils d’IA génératives est à proscrire ;
  • il est également indispensable d’avoir un regard critique et de veiller à retravailler les contenus générés par l’IA (cf. ne pas les réutiliser “tels quels”, afin de tenter de limiter le risque de contrefaçon (ce risque étant toutefois inhérent à toute activité créative) ;
  • enfin, les conditions d’utilisation des outils d’IA générative pouvant varier concernant la responsabilité des utilisateurs en matière de contrefaçon ou de concurrence déloyale / parasitisme, il convient d’en prendre connaissance afin de pouvoir se munir des outils les plus adaptés et protecteurs vis-à-vis des utilisations envisagées.

 

En outre, les outils d’IA générative peuvent être utilisés par un organisme afin de générer divers types de contenus. Il peut s’agir de contenus susceptibles d’être protégeables par le droit d’auteur (par exemple un article, une illustration, une vignette Youtube,…) ou encore par un droit de propriété industrielle (par exemple une marque, un logo ou un packaging). Dans ces hypothèses, la question de la protection des contenus générés par une entreprise via l’utilisation d’outils d’IA générative doit être posée. Le risque de divulgation du contenu ainsi généré doit également être envisagé, qu’il ait été créé ou non à partir de contenus préexistants sur lesquels l’organisme utilisateur dispose de droits.

 

A cet égard, il est recommandé ce qui suit :

  • pour un contenu pouvant potentiellement être protégé par le droit d’auteur :
    • il est indispensable de retravailler le contenu généré par l’IA, afin d’obtenir, le cas échéant, une protection sur le fondement du droit d’auteur. L’idée est d’apporter le maximum de création « humaine » afin de bénéficier d’arguments pour tenter de démontrer l’existence d’une « empreinte personnelle » et de son originalité, nécessaires pour la protection du contenu généré sur ce fondement ;
    • en tout état de cause, que le contenu soit protégeable ou non par le droit de la propriété intellectuelle, il est important de ne confier à l’IA générative que des tâches que l’entreprise utilisatrice maîtrise, cette dernière devant en effet disposer d’une capacité de discernement lui permettant d’effectuer une relecture pertinente du contenu généré par l’IA ;
    • pour prouver l’intervention humaine, il est nécessaire de garder la preuve du processus créatif (par exemple en utilisant la blockchain ou, au minimum, en faisant des impressions écrans et des enregistrements des différentes versions) ;
    • il convient de vérifier dans les conditions d’utilisation des outils d’IA générative que ces derniers cèdent la titularité sur les contenus générés ;
  • pour un contenu que l’entreprise utilisatrice souhaiterait protéger par un droit de propriété industrielle :
    • la question de la titularité est plus évidente puisque la titularité d’un droit de propriété industrielle s’acquiert par le dépôt auprès des Offices compétents (INPI, EUIPO…) ;
    • toutefois, dans le cas où l’entreprise utilisatrice souhaite procéder au dépôt d’un contenu produit par le biais d’une IA générative, il est recommandé de procéder à une vérification de ce contenu et de se faire assister par un professionnel compétent (avocat, CPI), qui pourra procéder à des recherches d’antériorités permettant de confirmer la disponibilité du contenu, et de vérifier s’il répond aux conditions d’un enregistrement ;
    • il convient de vérifier dans les conditions d’utilisation des outils d’IA générative que ces derniers n’empêchent pas un tel dépôt.

 

Par ailleurs, une attention particulière doit être portée au risque de diffusion non souhaitée et de réutilisation non maîtrisée par des tiers des éléments utilisés dans les prompts ou encore des contenus créés au moyen d’outils d’IA générative.

 

A cet égard, les précautions à prendre sont les suivantes :

  • pour tenter de se prémunir contre le risque de diffusion des contenus créés :
    • vérifier dans les conditions d’utilisation des outils d’IA générative que ces derniers garantissent ne pas réutiliser tant les contenus générés que les prompts pour leur propre compte (ex : à des fins d’apprentissage ou d’amélioration de leurs services) ou pour le compte de tiers (ex : les autres entreprises utilisatrices) ;
    • si possible, paramétrer son outil d’IA générative afin que les contenus générés et les prompts ne soient pas visibles publiquement (cf. le choix ou le paramétrage de l’outil devant tenir compte de l’existence d’une telle fonctionnalité par exemple) ;
    • de manière générale, éviter de recourir à des applications ou plateformes intégrant un outil d’IA générative et pouvant avoir des fonctionnalités de partage intégrées.

 

Attention : le risque de diffusion, même s’il peut être limité, par exemple en appliquant les précautions ci-dessus, est malheureusement inhérent lorsqu’une entreprise utilise des outils d’IA générative.

 

2. Outils d’IA générative et biais

Par ailleurs, l’utilisation d’outils d’IA générative implique un risque de réponses biaisées, inexactes (cf. pouvant être appelées des “hallucinations”) voire discriminatoires. L’utilisation d’outils d’IA générative ne permet donc pas d’être certain que les résultats obtenus seront exacts et « objectifs », et peut en outre conduire à reproduire des biais systémiques ou de société, voire à les renforcer, ce dont il résulte des risques pour les organismes exploitant les contenus générés au moyen de tels outils.

 

A cet égard, il est recommandé ce qui suit :

  • procéder obligatoirement à une vérification et à une relecture attentive; et à des ajustements lorsque tel est nécessaire des contenus générés ;
  • vérifier les sources utilisées par l’outil d’IA générative, à partir desquels les contenus ont été générés (lorsqu’elles sont disponibles) ;
  • interdire aux utilisateurs d’utiliser un outil d’IA générative pour des tâches qui ne rentrent pas dans le périmètre de leurs missions habituelles, et en particulier pour des tâches qu’ils ne sauraient pas réaliser ou pour lesquelles ils ne disposeraient pas des compétences requises, et ce afin qu’ils soient certains de pouvoir, avec discernement, vérifier et valider ce qui a été produit, au regard de leur expérience, de leur savoir-faire et de leurs connaissances des règles et bonnes pratiques applicables ;
  • s’assurer que des garanties contractuelles limitant les risques de biais et de discrimination sont fournies par le fournisseur de l’outil d’IA générative (ex : tests et audits réguliers, travail sur l’absence de discrimination by design ou encore sur la fiabilité des données des bases d’entraînement et des algorithmes,…).

 

3. Outils d’IA générative et traitements de données personnelles

En matière de protection des données à caractère personnel, là encore, les risques liés à l’utilisation d’outils d’IA générative doivent être pris en compte. En effet, des données à caractère personnel peuvent être utilisées dans le cadre de la construction et de l’apprentissage continu des outils d’IA générative. Elles peuvent provenir de toutes sources et peuvent être collectées par différentes méthodes (ex. « webscraping »), et la question de la licéité de leur traitement par le fournisseur de l’outil d’IA générative aux fins d’apprentissage, d’entraînement et d’enrichissement de l’outil constitue donc un enjeu fondamental.

En outre, la question de la licéité des traitements des données à caractère personnel des utilisateurs d’outils d’IA générative à des fins de gestion et de suivi des relations du fournisseur de l’IA générative avec lesdits utilisateurs au sens large (cf. données de création de compte telles que identifiant, mot de passe, adresse email ou encore numéro de téléphone, données de suivi des interactions telles que données de connexion,…) se pose, étant précisé que de telles données pourraient éventuellement être également utilisées à des fins d’apprentissage, d’entraînement et d’enrichissement (ex : profils d’utilisateurs pouvant impliquer des réponses différentes,…)…

Un risque complémentaire, et présentant une gravité particulière, concerne les traitements des données à caractère personnel qui pourraient être saisies par les utilisateurs dans les requêtes, voire se retrouver dans les contenus générés, puis être réutilisées là aussi à des fins d’apprentissage, d’entraînement et d’enrichissement par le fournisseur de l’outil d’IA générative, ou encore se retrouver dans les contenus générés par des tiers.

 

A cet égard, il est recommandé ce qui suit :

  • de manière générale, une des difficultés principales du recours aux outils d’IA générative est l’absence de garantie octroyée à l’utilisateur par ces outils s’agissant de la licéité des contenus, informations et données (en ce incluant les données à caractère personnel), y compris des contenus, informations et données « webscrappées », collectés et traités par lesdits outils. Il convient donc de tenir compte dans le choix de l’outil des conditions contractuelles encadrant le recours à tels outils, notamment s’agissant des garanties sur la licéité de la collecte des informations à partir desquels l’outil d’IA générative “apprend”, “s’entraîne” et génère des contenus ;
  • en tout état de cause, la solution la plus sécurisante en cas d’utilisation de tels outils consiste a minima à ne renseigner aucune donnée à caractère personnel dans les requêtes adressées aux outils d’IA générative ;
  • en revanche, aucune précaution ne permet de s’assurer avec rigueur de la licéité des traitements :
    • des données à caractère personnel relatives aux utilisateurs (i.e. la solution susvisée permettant seulement de neutraliser le risque de traitements illicites de données à caractère personnel saisies par un utilisateur). Toutefois, la piste de la souscription d’un abonnement aux termes duquel le fournisseur d’IA générative s’engage à ne pas réutiliser les données des utilisateurs ou a minima le paramétrage de l’outil de sorte à s’opposer à une telle réutilisation des données dans le compte utilisateur pourrait opportunément être envisagée (lorsqu’un tel abonnement ou un tel paramétrage est envisageable en pratique) ;
    • des données à caractère personnel utilisées par l’outil d’IA générative dans le cadre de sa conception et de son amélioration et qui pourraient avoir été collectées de manière non conforme aux dispositions applicables (induisant un risque pour l’entreprise utilisatrice de réutilisation de données collectées de manière illicite, et ce même si l’entreprise utilisatrice n’accède pas nécessairement à ces données) ;
  • en outre, il demeure un risque que les mesures de sécurité déployées ne soient pas suffisantes au regard du risque encouru pour les personnes concernées;
  • aussi, il convient en tout état de cause, si une entreprise décide de permettre l’utilisation d’outils d’IA générative par ses collaborateurs :
    • de s’assurer que des garanties contractuelles sont fournies par le fournisseur de l’outil d’IA générative s’agissant du respect des dispositions applicables en matière de traitements de données à caractère personnel (notamment licéité de la collecte, transparence et loyauté des traitements de données à caractère personnel,…) ;
    • de réaliser si possible un audit et de mener une analyse spécifique dédiée s’agissant des mesures de sécurité déployées par les outils d’IA générative ayant vocation à être utilisés afin de déterminer si celles-ci sont suffisantes et adaptées aux risques encourus, et d’effectuer une analyse d’impact sur la protection des données (cf. AIPD) ;
    • de tenir compte des analyses réalisées (ex: Report of the work undertaken by the ChatGPT Taskforce du 23 mai 2024 élaboré par le CEPD) et des recommandations émises par les autorités de contrôle compétentes en matière de protection des données à caractère personnel (ex : Les fiches pratiques de la Cnil en matière d’IA).

 

4. Outils d’IA générative et vie privée

Par ailleurs, dans le prolongement des risques évoqués en matière de traitements de données à caractère personnel, le risque d’atteinte à la vie privée, en ce incluant le droit à l’image, doit être évoqué (par exemple en cas de réutilisation de l’image ou/ou de la voix d’une personne à des fins de génération d’un contenu).

 

A cet égard, il est recommandé ce qui suit :

  • la solution la plus sécurisante consisterait à ne pas importer de photographies et plus généralement de contenus comportant l’image et/ou la voix de personnes physiques lors de l’utilisation d’outils d’IA générative ;
  • toutefois, si des photographies, et plus généralement des contenus représentant des personnes physiques (comportant leur image et/ou leur voix), ont tout de même vocation à être utilisées, alors il convient :
    • de s’assurer qu’une autorisation « droit à l’image » conforme aux dispositions applicables et aux utilisations envisagées a été dûment obtenue (étant précisé qu’une diffusion, qui plus est publique, sur un outil d’IA générative pourrait ne pas être considérée comme entrant dans le périmètre d’une autorisation « générale » qui aurait pu être préalablement donnée et qu’une autorisation spécifique est recommandée) ;
    • en cas de montage, de respecter les dispositions applicables à de telles pratiques, et en particulier de mentionner qu’il s’agit d’un montage ;
    • d’indiquer expressément que le contenu visuel ou sonore a été généré au moyen d’un outil d’IA générative.

 

5. Outils d’IA générative et secret / confidentialité

En outre, du fait des modalités de fonctionnement des outils d’IA générative, les risques d’atteinte au secret des affaires ou à la confidentialité de certaines informations doivent être soulevés.

 

A cet égard, il est recommandé ce qui suit :

  • la piste de la souscription d’un abonnement aux termes duquel le fournisseur d’IA générative s’engage à ne pas réutiliser les données fournies par les utilisateurs ou a minima le paramétrage de l’outil de sorte à s’opposer à une telle réutilisation des données dans le compte utilisateur pourrait opportunément être envisagée pour tenter de limiter le risque de divulgation d’informations confidentielles ou couvertes par le secret des affaires (lorsqu’un tel abonnement ou un tel paramétrage est envisageable en pratique) ;
  • en outre, l’activation des options ou encore la réalisation de paramétrage pour limiter la divulgation des « prompts » et contenus générés sont recommandées (lorsque de telles possibilités sont faisables en pratique) ;
  • pour autant, ces pistes de réflexion ne permettent pas de s’assurer qu’aucune information confidentielle ou couverte par le secret des affaires ne sera réutilisée par le fournisseur de l’outil d’IA générative pour des finalités qui lui sont propres, voire par des tiers. En tout état de cause, il convient a minima de s’assurer que le fournisseur de l’outil d’IA générative octroie des garanties contractuelles suffisantes concernant l’absence de réutilisation / divulgation des données, informations et contenus saisis ou fournis par l’utilisateur et/ou générés au moyen de cet outil, a minima lorsque les précautions ci-dessus sont prises par l’utilisateur ;
  • compte-tenu de ces incertitudes, la solution la plus sécurisante demeure de ne pas divulguer d’informations considérées comme « confidentielles » ou couvertes par le secret des affaires lors de l’utilisation de ces outils.

 

6. Stratégie et plan d’actions

Il résulte de ce qui précède que l’utilisation d’outils d’IA générative n’est pas sans risques. Aussi, certaines entreprises ont purement et simplement interdit l’utilisation de tels outils à des fins professionnelles, voire bloqué l’accès aux outils d’IA générative depuis l’environnement de travail de l’ensemble de leurs collaborateurs.

Pour autant, pour d’autres entreprises, une telle prise de position pourrait être insuffisante, voire contreproductive en cas de poursuite de l’utilisation de tels outils à des fins professionnelles depuis des équipements personnels par exemple (et donc de manière non-encadrée par l’employeur). En outre, une telle interdiction pourrait conduire à priver les membres du personnel d’outils leur permettant d’accroître leur productivité et de gagner du temps.

En tout état de cause, et bien que l’autorisation d’utiliser de tels outils à des fins professionnelles soit source de risques, si une telle utilisation est autorisée par un organisme, celle-ci doit impérativement être encadrée.

 

Aussi, les pistes suivantes visant à tenter de limiter les risques inhérents à l’utilisation d’outils d’IA générative pourraient être envisagées (étant précisé que ces précautions, si elles sont opportunes et nécessaires, ne permettent toutefois pas de neutraliser l’intégralité des risques soulevés, mais constituent des bonnes pratiques qu’il convient a minima de déployer pour tenter de limiter ces risques) :

 

a) Identification des cas d’usage de l’IA générative au regard des besoins et contraintes de l’organisme (cf. métiers et tâches concernés, vérification de la faisabilité ou non de l’utilisation d’un outil d’IA générative au regard notamment des contrats conclus avec les clients / partenaires,…).

 

b) Analyse approfondie de la documentation fournie concernant les outils d’IA générative (en fonction des typologies d’abonnement proposées et le cas échéant avec l’assistance d’un avocat) s’agissant :

    • des conditions contractuelles encadrant l’utilisation de tels outils (ex : garanties sur l’absence de réutilisation des données et contenus saisis ou fournis par les utilisateurs, sur la licité des traitements de données à caractère personnel mis en œuvre ou encore sur la licéité de la collecte des informations à partir desquels l’outil d’IA générative apprend et génère des contenus, absence de limitation de responsabilité / réparation,…) ;
    • des fonctionnalités proposées (selon la typologie d’abonnement souscrit, afin de déterminer les « options » devant par exemple être désactivées) ; et
    • des mesures techniques et opérationnelles de sécurité déployées par le fournisseur de cet outil (en concertation avec la direction des systèmes d’information de l’entreprise utilisatrice), le cas échant au moyen d’un audit et d’une analyse spécifique dédiée, en parallèle de la réalisation d’une AIPD ;

et ce afin d’en tenir compte dans le choix du ou des outil(s) d’IA générative autorisés.

 

c) Détermination des outils d’IA générative dont l’utilisation est autorisée ou non au sein de l’organisme et des typologies / niveaux d’abonnement appropriés (au regard en particulier du résultat de l’analyse approfondie de la documentation mise à disposition par les fournisseurs d’outils d’IA générative et des garanties apportées).

 

d) Elaboration d’une charte d’utilisation des outils d’IA générative au sein de l’organisme (le cas échéant avec l’assistance d’un avocat).

 

Un tel document devra être rendu opposable à l’ensemble des membres du personnel susceptibles d’utiliser de tels outils d’IA générative et permettrait de poser les règles minimales que lesdits membres du personnel devront s’engager à respecter lorsqu’ils utilisent de tels outils.

 

A titre d’exemple, les règles d’utilisation suivantes pourraient être énoncées dans un tel document :

  • identification des personnes autorisées à utiliser de tels outils d’IA générative au sein de l’organisme et des tâches pouvant ou non être réalisées en recourant à de tels outils ;
  • identification des outils d’IA générative dont l’utilisation est autorisée (sous réserve du respect des règles d’utilisation posées dans la charte) au sein de l’organisme et des cas d’usage autorisés;
  • nécessité pour les utilisateurs d’avoir un regard « critique» sur les contenus générés ;
  • vérification des sources utilisées par l’outil d’IA générative, à partir desquels les contenus ont été générés (lorsqu’elles sont disponibles) ;
  • interdiction de se reposer entièrement sur l’IA dans sa prise de décision et/ou dans son travail et obligation de retravailler les contenus générés (cf. pas de reprise « en l’état » des contenus), et ce notamment pour limiter les risques d’inexactitude, de biais ou de discrimination, ou encore pour y intégrer des mentions obligatoires le cas échéant ;
  • interdiction d’utilisation d’outils d’IA générative pour certaines tâches ou encore pour des tâches qui ne rentrent pas habituellement dans le périmètre des missions de l’utilisateur concerné (celui-ci devant être compétent pour relire, adapter, corriger, ou encore valider les contenus ainsi générés) ;
  • établissement de règles et précautions à prendre pour l’élaboration des requêtes adressées aux outils d’IA générative.

 

Il est précisé qu’un tel document est par nature évolutif et qu’il devra être mis à jour, adapté, ajusté,… pour tenir compte des retours d’expérience, d’éventuels nouveaux cas d’usage et des évolutions technologiques (modification des fonctionnalités proposées, modification des conditions d’utilisation, etc.) et juridiques.

 

Le périmètre de ce document pourrait bien entendu être élargi. Il pourrait être envisagé de le décliner et de le rendre opposable aux fournisseurs, prestataires, etc. susceptibles d’utiliser des outils d’IA générative dans le cadre des missions qu’ils réalisent pour le compte de l’organisme.

 

e) Sensibilisation des membres du personnel à l’utilisation d’outils d’IA générative (règles à respecter, utilisations proscrites,… sur la base des éléments figurant dans la charte d’utilisation des outils d’IA générative qu’il convient d’élaborer et de déployer – cf. supra). S’agissant des fournisseurs, prestataires, etc. susceptibles d’utiliser des outils d’IA générative dans le cadre des missions qu’ils réalisent pour le compte de l’organisme, il pourrait être envisagé de leur imposer de participer à de telles sessions de sensibilisation organisées par l’organisme ou de garantir que les utilisateurs habilités ont bénéficié d’une formation approfondie et appropriées en matière de gestion des risques concernant l’utilisation de tels outils.

 

f) En cas de souhait de l’organisme de procéder au dépôt ou à l’enregistrement d’un contenu produit au moyen d’une IA générative (ex : marque) : procéder à des recherches d’antériorités permettant de confirmer la disponibilité du contenu et vérifier s’il répond aux conditions du dépôt ou de l’enregistrement envisagé (le cas échéant avec l’assistance d’un avocat ou d’un CPI).

 

g) S’assurer, au moyens de vérifications documentaires, voire d’audits, que les outils d’IA générative auxquels il est prévu de recourir respectent les obligations imposées par l’IA Act aux fournisseurs de modèle d’IA à usage général (ex : documentation technique comportant la description générale du SIA à usage général, et des informations pertinentes sur le processus d’élaboration, en particulier des informations sur les données utilisée pour la formation, le type et la provenance de ces données et leur méthode de conservation, ainsi que la manière dont les données ont été obtenues et sélectionnées, les mesures utilisées pour détecter l’inadéquation des données et, le cas échéant, les méthodes utilisées pour détecter les biais identifiables,… ou encore concernant le respect des obligations complémentaires qui s’imposent lorsque l’outil d’IA générative envisagé est considéré comme présentant un risque systémique au sens de l’IA Act, telle que l’évaluation régulière du modèle, notamment au moyen d’essais contradictoires et documentés des modèles à des fins d’atténuation desdits risques systémiques).

 

Outre le fait qu’une telle démarche permet de vérifier le respect par les fournisseurs d’outils d’IA générative de leurs obligations, elle a également vocation à ce que l’entreprise utilisatrice prenne connaissance d’un certain nombre d’informations nécessaires à l’analyse desdits outils.

 

h) Mise en place d’un process de vérification initiale puis périodique sur la base du plan d’actions susvisés, des cas d’usage et de la documentation associée, afin de mener une analyse de risques initiale puis de manière régulière, selon une fréquence à convenir, pour tenir compte des retours d’expérience, d’éventuels nouveaux cas d’usage et des évolutions technologiques (modification des fonctionnalités proposées, modification des conditions d’utilisation, etc.) et juridiques.

 

 

*          *

*

 

 

AGIL’IT se tient à votre disposition pour vous accompagner dans le cadre de la mise et/ou du maintien en conformité de vos pratiques en matière de recours aux outils d’IA générative (ex: revue des documents contractuels, analyse de conformité, audit des formulaires de collecte et du process de transmission des données le cas échéant, protection des contenus générés, charte encadrant l’utilisation des outils d’IA générative, sensibilisation des utilisateurs,…).

 

 

Par AGIL’IT – Pôle ITData & Cyber

Laure LANDES-GRONOWSKI, Avocate associée

Marie MILIOTIS, Avocate manager