Sauter la navigation

Un avocat en Alberta pourrait être condamné personnellement à payer des dépens pour avoir cité des cas hallucinés par l’IA

11 novembre 2025

Le 26 septembre 2025, la Cour d’appel de l’Alberta (la « CAA ») a rendu sa première décision au sujet des fausses références que peuvent générer les outils d’intelligence artificielle (« IA ») générative. Ces fausses références, consistant essentiellement en des lois ou cas de jurisprudence fictifs, sont communément appelées des « hallucinations ». 

Dans l’affaire Reddy v. Saroya (l’« affaire Reddy »), le mémoire présenté par l’appelant à la CAA citait des cas inexistants, lesquels semblaient avoir été créés par l’IA générative. La CAA envisage de condamner personnellement l’avocat de l’appelant à payer des dépens majorés pour avoir omis de vérifier l’exactitude des décisions auxquelles il réfère dans le mémoire.

Cet appel s’ajoute à la liste croissante des affaires dans lesquelles des cas « hallucinés » de jurisprudence ont été soumis aux tribunaux, un phénomène récent et observé partout au Canada.

Affaire Reddy

L’affaire Reddy fait appel, devant la CAA, d’une ordonnance pour outrage au tribunal qui sanctionnait le défaut de fournir les réponses à 28 engagements. La partie appelante n’a fourni aucun hyperlien vers les cas de jurisprudence cités dans son mémoire ni aucune copie de ceux-ci. L’intimé a avancé la possibilité que l’absence de tels hyperliens ou de telles copies soit attribuable à l’utilisation de l’IA générative, en notant que sept des affaires auxquelles référait l’appelant étaient introuvables et probablement inexistantes.

L’avocat de l’appelant a expliqué à la CAA qu’il avait retenu les services d’un contractant pour l’aider dans la préparation des documents de l’appel, lequel contractant avait assuré ne pas avoir eu recours à l’IA générative. Toutefois, l’avocat de l’appelant a reconnu que « les explications du contractant n’étaient peut-être pas vraies ». Il a allégué avoir reçu les documents du contractant trop tard et avoir ainsi manqué de temps pour faire les vérifications qui s’imposaient à l’égard des cas cités.

L’intimé a demandé que l’avocat de l’appelant soit personnellement tenu de payer des dépens majorés, soutenant que l’utilisation de l’IA générative constituait un abus de procédure et que son avocat avait passé beaucoup de temps à chercher des cas de jurisprudence qui n’existaient pas. La CAA a indiqué que, compte tenu des circonstances, elle envisageait d’imposer des dépens à l’avocat de l’appelant personnellement et a demandé que d’autres observations écrites lui soient fournies.

Orientation du Barreau de l’Alberta relative à l’IA générative

Dans l’affaire Reddy, la CAA a noté que les avocats doivent respecter les obligations que leur confère le code de déontologie des avocats (Code of Conduct) lorsqu’ils utilisent l’IA générative dans l’exercice de leur profession. Elle a notamment attiré l’attention sur l’obligation de fournir tout service juridique selon la norme de compétence attendue d’un avocat diligent. Le Barreau de l’Alberta a d’ailleurs publié des lignes directrices et des notes de pratique au sujet de l’utilisation de l’IA générative. Parmi ces ressources, mentionnons « The Generative AI Playbook » et l’avis à l’intention de la profession et du public daté du 6 octobre 2023 intitulé Ensuring the Integrity of Court Submissions When Using Large Language Models (l’« Avis »), (dans les deux cas, disponibles en anglais seulement). L’Avis souligne l’importance d’« impliquer un humain dans le processus » pour qu’il vérifie tout matériel produit par un outil d’IA générative.

Ces ressources insistent sur le fait que les parties doivent faire preuve de prudence lorsqu’elles utilisent l’IA générative et devraient examiner attentivement toute réponse produite par cette technologie, compte tenu du risque d’hallucinations, de violation du droit d’auteur et de perte du secret professionnel ou de la confidentialité. Lorsque des parties renvoient à des affaires précédentes, à des lois ou à des observations, elles devraient s’assurer que celles-ci proviennent exclusivement de sources faisant autorité, comme les sites Web officiels des tribunaux, d’éditeurs commerciaux ou de services publics bien établis, comme CanLII.

Dans l’affaire Reddy, la CAA fait clairement savoir que, dans le cadre des responsabilités inhérentes à la gestion de leur pratique, les avocats devraient prévoir le temps nécessaire pour vérifier les autorités suggérées par les outils d’IA générative. Si un avocat retient les services d’un tiers indépendant pour préparer un document qui sera présenté à un tribunal, c’est l’avocat dont le nom figure sur le document qui assume la responsabilité ultime quant au contenu de ce dernier.

Enjeux en évolution

L’affaire Reddy n’est que l’une de nombreuses autres décisions rendues récemment au Canada qui traitent des risques liés à l’utilisation de l’IA générative dans le cadre de litiges.

En 2024, la Cour suprême de la Colombie-Britannique a condamné personnellement l’avocat de l’un des demandeurs au paiement des dépens pour avoir cité des cas de jurisprudence « hallucinés » (Zhang v. Chen). En mai dernier, la Cour supérieure de justice de l’Ontario a mis en garde les avocats contre les problèmes éthiques et juridiques qui peuvent découler du défaut d’examiner adéquatement le contenu produit par l’IA générative (Ko v. Li). Enfin, plus tôt cet été, la Cour du Banc du Roi de l’Alberta a pour sa part mis en garde les personnes qui se représentent elles-mêmes contre le risque des « hallucinations » de l’IA générative et a souligné qu’il était inacceptable de renvoyer à des autorités sans vérifier l’exactitude de l’information présentée (NCR v. KKB).

Dans l’affaire Reddy, il reste à voir le montant des dépens que la CAA ordonnera, le cas échéant, à l’avocat de l’appelant personnellement. À mesure que le secteur juridique continue de s’adapter à l’IA générative, il est essentiel que les avocats soient bien informés des risques et des possibilités associés à l’utilisation de cette technologie dans l’exercice de leur profession.

Pour en savoir davantage, communiquez avec les auteurs ou un autre membre de notre groupe Litige et règlement des différends.

Plus de ressources