Sauter la navigation

Réglementation des systèmes d’intelligence artificielle : le gouvernement fédéral propose une nouvelle loi

23 juin 2022

Le 16 juin 2022, le gouvernement fédéral a présenté le projet de loi C‑27, Loi de 2022 sur la mise en œuvre de la Charte du numérique (le « projet de loi C‑27 » ou « projet de loi »). Si le projet de loi est adopté, la législation fédérale sur la protection des renseignements personnels dans le secteur privé ferait l’objet d’une importante réforme. Cette réforme comprendrait des règles visant à réglementer les systèmes d’intelligence artificielle (« IA ») « à incidence élevée » aux termes d’une nouvelle loi intitulée Loi sur l’intelligence artificielle et les données (la « LIAD »).

La LIAD aurait notamment pour effet :

  • de créer un poste de commissaire à l’intelligence artificielle et aux données chargé d’appuyer le ministre de l’Innovation, des Sciences et de l’Industrie dans l’application de la LIAD;

  • d’ériger en infraction le fait de rendre disponible ou d’utiliser un système d’IA pouvant vraisemblablement causer des préjudices sérieux.

Tout comme la récente proposition de l’Union européenne, la LIAD privilégie une approche fondée sur le préjudice aux fins de la réglementation de l’IA en créant de nouvelles obligations à l’égard des « systèmes à incidence élevée » (terme non encore défini).

Nous présentons ci-dessous un survol du nouveau projet visant la réglementation des systèmes d’IA. Assurez-vous de lire notre Bulletin Blakes connexe intitulé Nouveau projet de loi fédéral modernisant les exigences de protection des renseignements personnels dans le secteur privé, qui traite des principales propositions du projet de loi C‑27 visant à réformer la législation sur la protection des renseignements personnels dans le secteur privé.

NOUVELLES OBLIGATIONS

Les responsables de systèmes d’IA seraient tenus d’évaluer si le système est un système à incidence élevée. Le cas échéant, ils devraient établir des mesures visant à cerner, à évaluer, à atténuer et à contrôler les risques de préjudice ou de résultats biaisés que pourrait entraîner l’utilisation du système. Un résultat biaisé s’entend notamment d’un contenu généré par le système qui défavorise un individu sur le fondement d’un ou de plusieurs motifs de distinction illicite prévus dans la Loi canadienne sur les droits de la personne.

Comme dans le cas des obligations de transparence prévues dans le projet de Loi sur la protection de la vie privée des consommateurs (la « LPVPC »), la LIAD obligerait les personnes qui rendent disponibles des systèmes à incidence élevée et les personnes qui gèrent l’exploitation de ces derniers à publier une description, en langage clair, de l’utilisation visée du système, des types de contenu que celui-ci est censé générer, des prédictions ou des recommandations qu’il est censé faire ou des décisions qu’il est censé prendre, des mesures d’atténuation établies et de tout autre renseignement prévu par règlement.

Ces personnes seraient également assujetties à de nouvelles obligations de déclaration selon lesquelles elles devraient aviser le ministre si le système réglementé entraînait, ou pouvait vraisemblablement entraîner, un préjudice important. Le projet de loi ne précise pas ce qui est entendu par un « préjudice important ». Ce terme sera probablement défini dans le règlement.

APPLICATION

La LIAD serait administrée et appliquée par un nouveau commissaire à l’intelligence artificielle et aux données. Contrairement au commissaire à la protection de la vie privée du Canada, qui est un agent indépendant du Parlement, le commissaire à l’intelligence artificielle et aux données ferait partie du ministère de l’Innovation, des Sciences et de l’Industrie, et ses pouvoirs lui seraient délégués par le ministre.

Les pouvoirs que le ministre pourrait déléguer au commissaire à l’intelligence artificielle et aux données comprennent le pouvoir d’ordonner à une personne de faire ce qui suit :

  • fournir tout document requis;

  • effectuer une vérification relativement à une contravention possible à la LIAD, y compris en retenant les services d’un vérificateur indépendant;

  • mettre en œuvre toute mesure précisée dans le rapport de vérification;

  • cesser d’utiliser ou de rendre disponible un système à incidence élevée dont elle est responsable s’il existe des motifs raisonnables de croire que l’utilisation d’un système à incidence élevée entraîne un risque grave de préjudice imminent;

  • publier des renseignements (sauf des renseignements commerciaux confidentiels) se rapportant aux obligations de conformité en vertu de la LIAD.

En outre, en cas de détermination de responsabilité pour violation, conformément aux règlements, l’auteur de la violation encourrait la sanction administrative pécuniaire prévue par ces règlements. La LIAD proposée ne précise pas le montant de la pénalité.

En vertu de la LIAD, constituerait également une infraction ce qui suit :

  • contrevenir aux obligations relatives aux systèmes à incidence élevée;

  • entraver l’action du ministre, de toute personne agissant pour le compte de celui-ci (comme le commissaire à l’intelligence artificielle ou aux données) ou d’un vérificateur indépendant, ou leur fournir des renseignements faux ou trompeurs;

  • posséder ou utiliser des renseignements personnels afin de concevoir, de développer, d’utiliser ou de rendre disponible un système d’IA, en sachant ou en croyant que ces renseignements ont été obtenus ou qu’ils proviennent, directement ou indirectement , de la perpétration d’une infraction à une loi, notamment un acte ou d’une omission survenu à l’extérieur du Canada qui, au Canada, aurait constitué une telle infraction (comme le fait de contrevenir aux exigences en matière de consentement de la LPVPC);

  • sans excuse légitime et en sachant que l’utilisation d’un système d’intelligence artificielle pourrait vraisemblablement causer un préjudice — physique ou psychologique — sérieux à un individu, ou un dommage considérable à ses biens, ou en ne se souciant pas de savoir si tel sera le cas, rendre disponible ou utiliser un système dont l’utilisation cause un tel préjudice ou dommage;

  • rendre un système d’IA disponible avec l’intention de frauder le public et de causer une perte économique considérable à un individu, ou encore rendre disponible un système d’intelligence artificielle dont l’utilisation cause cette perte économique.

Une personne qui commettrait une infraction aux termes de la LIAD encourrait, sur déclaration de culpabilité, une amende de 25 M$ CA ou, s’il est supérieur, d’un montant égal à 5 % des recettes globales brutes de cette personne.

Il est prévu que le projet de loi C‑27 sera débattu à la Chambre des Communes à l’automne 2022 et que d’autres amendements pourraient être proposés à son égard.

Nous vous tiendrons au courant de tout développement qui pourrait se produire pendant l’été au sujet de l’incidence des propositions spécifiques du projet de loi C‑27 pour les entreprises canadiennes.

Pour en savoir davantage, communiquez avec :

Marie-Hélène Constantin       514-982-4031
Sunny Handa                            514-982-4008
Ellie Marshall                            416-863-3053
Wendy Mee                               416-863-3161

ou un autre membre de notre groupe Protection de la vie privée et des données.