Sauter la navigation

Utilisation de l’intelligence artificielle dans le domaine de l’arbitrage

28 avril 2026

Le fait que des avocats recourent à des outils d’intelligence artificielle générative (l’« IA générative ») pour effectuer du travail juridique de fond a été au cœur de l’actualité juridique ces dernières années, souvent pour les mauvaises raisons. Or, lorsqu’elle est utilisée adéquatement, l’IA générative peut permettre d’accomplir des tâches juridiques avec une plus grande efficacité. Si, jusqu’à présent, l’utilisation de l’IA générative, en particulier par des parties à des actions ou encore par des conseillers juridiques, a suscité des discussions, un aspect émergent de cette technologie réside dans son adoption par les juges et les arbitres.

Lignes directrices et cas d’utilisation de l’IA générative pour les arbitres

Les organismes d’arbitrage ont commencé à élaborer des lignes directrices relatives à l’utilisation de l’IA générative par les arbitres, mais il y a encore très peu de directives à l’intention des décideurs par rapport aux exigences expressément imposées aux parties. Pour l’essentiel, les principes directeurs que les décideurs devraient appliquer font partie de l’obligation générale d’équité procédurale, ainsi que de l’obligation pour les arbitres de prendre leurs propres décisions en se fondant uniquement sur les éléments fournis par les parties.

Le Chartered Institute of Arbitrators (le « CIArb ») a publié une ligne directrice, intitulée Guideline on the Use of AI in Arbitration (en anglais seulement), qui comprend des directives spécifiques à l’intention des arbitres. La ligne directrice reconnaît que les arbitres peuvent choisir de recourir à l’IA générative, mais précise que, peu importe l’aide fournie par l’IA générative dans le cadre d’un processus décisionnel, les arbitres demeurent responsables de tous les aspects d’une sentence. La ligne directrice souligne également que les arbitres ne doivent pas renoncer à leurs pouvoirs décisionnels. Plus précisément, ils doivent éviter de déléguer à un outil d’IA générative l’analyse juridique, la recherche, l’interprétation des faits et du droit, ou l’application du droit. Nous examinons de plus près cette ligne directrice dans un Bulletin Blakes antérieur intitulé Première ligne directrice du Chartered Institute of Arbitrators sur l’utilisation de l’IA dans le contexte de l’arbitrage.

Tirant parti du développement rapide et des avantages de l’IA générative, l’American Arbitration Association (l’« AAA ») a quant à elle mis au point un outil appelé l’AI Arbitrator, lequel est entraîné pour formuler des sentences dans le cadre d’affaires présentées à l’AAA dans le domaine de la construction spécifiquement. Cet outil analyse les demandes des parties et les preuves, applique le droit et rédige un projet de sentence. L’AAA maintient toutefois un humain dans le processus, un arbitre humain examinant la sentence et la modifiant au besoin avant que la sentence ne soit prononcée.

L’AAA met en évidence le fait que le processus décisionnel de l’AI Arbitrator comprend l’intervention d’un arbitre humain et que le jugement juridique humain demeure un élément central à chaque étape. L’AI Arbitrator est conçu pour outiller et non remplacer les arbitres humains. Dans le même ordre d’idées, en mars 2026, l’AAA a lancé le Resolution Simulator, un outil qui génère des décisions non contraignantes en modélisant la façon dont un arbitre neutre pourrait analyser les demandes, les demandes reconventionnelles et les arguments juridiques. Cet outil vise à aider les parties à évaluer les forces et les faiblesses de leurs dossiers, et non à rendre une décision contraignante.

L’IA générative peut accroître l’efficacité et réduire les coûts. Cependant, l’adoption de cet outil doit être faite en s’assurant que les principes d’équité tant sur le plan de la procédure que du fond sont respectés. À l’exception de l’AAA, du Silicon Valley Arbitration & Mediation Centre et de quelques autres, bon nombre des grandes institutions n’ont pas encore publié de lignes directrices, mais on peut s’attendre à ce qu’elles emboîtent le pas.

Défis posés par l’utilisation de l’IA générative

Une requête déposée auprès de la cour de district des États-Unis pour le district sud de la Californie (LaPaglia v. Valve Corp.) (l’« affaire LaPaglia ») met en évidence les risques auxquels s’exposent les décideurs qui utilisent l’IA générative. Dans l’affaire LaPaglia, le requérant demandait l’annulation de la sentence finale d’un arbitre, en partie parce que l’arbitre se serait fié à l’IA générative pour rédiger sa décision. M. LaPaglia a notamment fait valoir qu’en confiant la prise de décision à l’IA générative, l’arbitre avait outrepassé sa compétence : [TRADUCTION] « À l’exemple des tribunaux qui ont annulé des sentences parce que la prise de décision avait été confiée à une autre personne que l’arbitre désigné, un tribunal doit également annuler la sentence lorsque la prise de décision a été confiée à une IA ». La cour a rejeté la requête fondée sur des motifs de compétence, laissant en suspens les véritables répercussions de la conduite présumée de l’arbitre et de son recours à l’IA générative.

Bien qu’il ne s’agisse pas d’un contexte arbitral, il est intéressant de mentionner la décision rendue dans l’affaire United States of America v. Bradley Heppner par la cour de district des États-Unis pour le district sud de New York, qui a statué que les documents qui contenaient les communications entre une partie et un outil d’IA générative, lesquels présentaient des arguments pouvant être soulevés quant aux faits et au droit, n’étaient pas protégés par le secret professionnel de l’avocat. Compte tenu des modalités explicites de la politique en matière de protection de la vie privée de l’outil d’IA générative utilisé, la cour a déclaré que le défendeur n’avait aucune attente raisonnable en matière de respect de la vie privée concernant les renseignements partagés et, surtout, que l’IA générative n’était pas un avocat, si bien qu’il n’y avait pas de relation avocat-client. En fin de compte, toutes les « conversations » du défendeur avec l’outil d’IA générative ont été jugées susceptibles d’être produites. Cette affaire est examinée plus en détail dans un Bulletin Blakes récent intitulé IA et privilège de confidentialité : Considérations pratiques tirées de la jurisprudence émergente.

Jusqu’à ce que des règles institutionnelles définissent expressément l’utilisation acceptable de l’IA générative, il est fortement conseillé aux parties d’exprimer leurs attentes quant à l’utilisation de l’IA au moment d’établir les modalités d’une procédure d’arbitrage donnée ou de rendre l’ordonnance de procédure no 1. En particulier dans le cadre d’un arbitrage, où les parties sont généralement liées par des obligations de confidentialité strictes, de graves problèmes peuvent découler de l’utilisation illimitée d’outils d’IA générative par les parties et le décideur qu’elles ont choisi. Le fait de définir les attentes des parties dès le début de l’arbitrage permet de réduire le risque d’éventuelles contestations.

Conclusion

À mesure que les outils d’IA générative continuent d’évoluer et d’être intégrés dans les procédures d’arbitrage, les arbitres, les avocats et les institutions devront continuer d’établir des lignes directrices claires et des pratiques exemplaires pour s’assurer que les gains d’efficacité ne se fassent pas au détriment de l’équité, de la confidentialité ou de l’intégrité du processus d’arbitrage.

Pour en savoir davantage, communiquez avec l’un des auteurs du présent bulletin ou un autre membre de nos groupes Arbitrage ou Litige et règlement des différends.

Plus de ressources