À mesure que les outils d’intelligence artificielle (« IA ») s’intègrent dans les processus juridiques, des questions importantes concernant le privilège de confidentialité ont été soulevées. Comment les tribunaux traiteront-ils des revendications d’un privilège concernant du contenu généré par l’IA, ou concernant des requêtes et des documents partagés avec des outils d’IA?
Les tribunaux canadiens n’ont pas eu à se pencher sur ces questions jusqu’à présent. Cela dit, des décisions récentes rendues aux États-Unis et au Royaume-Uni semblent indiquer que les cadres d’analyse généralement acceptés qui sont utilisés pour déterminer si le privilège de confidentialité existe ou s’il y a eu renonciation à celui-ci seront appliqués aux nouvelles questions impliquant des outils d’IA. Cependant, ces décisions récentes devraient servir de mises en garde surtout en ce qui concerne les risques que pose le fait de partager des conseils juridiques à des modèles à code source libre ou de demander des conseils juridiques à de tels modèles, ce qui pourrait, en fin de compte, empêcher les parties à un litige de revendiquer le privilège de confidentialité.
Décisions récentes rendues aux États-Unis et au Royaume-Uni
Dans l’affaire Warner v. Gilbarco Inc. (E.D. Mich. 10 février 2026), la cour de district des États-Unis pour le district est du Michigan a conclu que l’utilisation de ChatGPT, un outil d’IA à code source libre, par une partie qui se représentait elle-même, n’avait pas entrainé une renonciation à la protection relative aux travaux juridiques préparatoires. La cour a déclaré que les documents générés par l’IA étaient protégés parce qu’ils reflétaient le cheminement mental de la partie se représentant elle-même et qu’ils avaient été préparés en vue d’un litige. La cour a par ailleurs souligné que les plateformes d’IA générative « sont des outils et non des personnes » (are tools, not persons), de sorte que l’utilisation de ces plateformes ne constitue pas une communication à la partie adverse ou susceptible de lui parvenir.
En revanche, dans l’affaire United States v. Heppner (S.D.N.Y., 17 février 2026), le défendeur a invoqué le secret professionnel de l’avocat et la protection relative aux travaux juridiques préparatoires pour des documents créés par une plateforme d’IA générative afin de présenter sa stratégie de défense dans le cadre d’une enquête menée par la Chambre des mises en accusation.
La cour de district des États-Unis pour le district sud de New York a rejeté la revendication du secret professionnel et la revendication de la protection relative aux travaux juridiques préparatoires. La cour dans cette affaire a commencé son analyse en soulignant les trois critères bien établis pour qu’une communication soit protégée par le secret professionnel de l’avocat. Une telle communication doit être 1) une communication entre un avocat et son client, 2) de nature confidentielle et 3) qui vise à obtenir ou à fournir des conseils juridiques. La cour a déclaré qu’aucun de ces critères n’était rempli, entre autres puisqu’un outil d’IA n’était pas un avocat. D’ailleurs, dans cette affaire, lorsqu’il avait été interrogé, l’outil d’IA avait répondu qu’il n’était pas avocat et qu’il ne pouvait pas fournir de conseils juridiques. Quant à la confidentialité, la politique en matière de protection de la vie privée de l’outil d’IA utilisé permettait la collecte de données ainsi que la divulgation à des tiers, ce qui a conduit la cour à conclure que les communications n’étaient pas confidentielles. Enfin, la cour a aussi noté que, même si le défendeur avait l’intention de partager ultérieurement avec son avocat les communications qu’il avait eues avec l’outil d’IA, il existe une règle de droit immuable selon laquelle les communications non protégées par le secret professionnel de l’avocat ne le deviennent pas lorsqu’elles sont ensuite partagées avec un avocat. La revendication du privilège relatif aux travaux juridiques préparatoires a échoué de façon semblable. La cour de New York a noté que la doctrine de la documentation créée en vue d’une instance protège les documents préparés par un avocat ou à sa demande en prévision d’un litige, et que son objectif principal est de protéger les processus mentaux des avocats. Étant donné que le défendeur avait utilisé l’IA de son propre chef et non selon les instructions de son avocat, le privilège relatif aux travaux juridiques préparatoires ne pouvait être invoqué.
Bien que le privilège relatif aux travaux juridiques préparatoires soit parfois décrit comme similaire au privilège relatif au litige au Canada, la portée de la protection au Canada est plus large que celle prévue au droit de New York, ce qui laisse sans réponse la question de savoir si une affaire présentant des faits similaires pourrait être tranchée différemment au Canada.
Enfin, au Royaume-Uni, une décision a récemment été rendue par un tribunal (Immigration and Asylum Chamber) dans l’affaire Munir v. Secretary of State for the Home Department, qui portait sur l’utilisation présumée de l’IA par un avocat qui a présenté au tribunal des citations fictives (ou hallucinées). L’avocat a affirmé ne pas savoir comment les citations fictives en question s’étaient retrouvées dans ses mémoires, mais a reconnu avoir saisi des lettres de clients et d’autres documents confidentiels dans ChatGPT. Le tribunal a noté que le fait de téléverser des documents confidentiels d’un client dans un outil d’IA à code source libre mettait ces renseignements dans le domaine public, portant ainsi atteinte à l’obligation de confidentialité envers le client et entrainant la renonciation au secret professionnel. Le tribunal a par ailleurs noté que des outils à code source fermé, qui n’exposent pas au domaine public les renseignements qui y sont versés, sont accessibles pour effectuer les mêmes tâches, sans poser les mêmes risques du point de vue du secret professionnel.
Considérations pratiques
Ces décisions constituent des leçons importantes pour les avocats et les organisations qui utilisent l’IA générative.
Premièrement, l’utilisation de l’IA comporte des risques inhérents. Les plaideurs pourraient réaliser qu’aucun privilège de confidentialité ne s’applique à leurs communications lorsque l’IA a été utilisée, ou que l’utilisation de l’IA a donné lieu à une renonciation au privilège de confidentialité.
Deuxièmement, les décisions des États-Unis et du Royaume-Uni évoquées ici soulignent que les modalités et conditions des modèles d’IA ont une grande importance, tout comme le fait que le modèle utilisé soit à code source libre ou fermé. Dans l’affaire Munir, la distinction entre un modèle à code source libre ou un modèle à code source fermé a été explicitement désignée comme un facteur de risque en matière de secret professionnel. Dans l’affaire Heppner, les modalités et conditions relatives à l’outil d’IA ont conduit la cour à conclure que les communications n’étaient pas considérées comme étant de nature confidentielle, un critère clé du secret professionnel de l’avocat. Pour les organisations, cela signifie que le recours à des versions d’outils d’IA destinées aux entreprises, assorties de paramètres de confidentialité clairs et contractuels, constitue la meilleure pratique pour maintenir la protection du privilège de confidentialité.
Enfin, compte tenu de la présence désormais courante de l’IA, y compris des plateformes à code source libre accessibles sur les appareils personnels d’employés, les organisations devraient envisager de mettre en place des politiques claires limitant l’utilisation de l’IA. Ce sujet est abordé dans un récent Bulletin Blakes intitulé Gouvernance de l’utilisation interne de l’intelligence artificielle : considérations clés. Plus particulièrement, les organisations devraient veiller à ce que ces outils ne soient pas utilisés pour obtenir des conseils juridiques, car, comme l’a souligné la cour de New York, les outils d’IA ne sont pas des avocats.
Nous continuerons de suivre les développements dans ce domaine, en particulier l’émergence d’une jurisprudence canadienne. Pour en savoir davantage, communiquez avec l’un des auteurs du présent bulletin ou un autre membre de nos groupes Litige et règlement des différends ou Intelligence artificielle.