L’intelligence artificielle (IA) transforme rapidement l’économie, la main-d’œuvre et le processus décisionnel des gouvernements et des entreprises. Si bon nombre de ces changements sont déjà en cours, l’IA semble progresser à un rythme que la profession juridique ne peut soutenir en termes de réglementation. Malgré les nombreux avantages de l’IA, sa fiabilité n’a pas encore été démontrée devant les tribunaux canadiens, qu’elle soit utilisée par une partie non représentée ou un professionnel du droit. Il faut poursuivre le développement et la réglementation de l’IA.
En 2024, les tribunaux ont examiné de plus en plus attentivement le rôle de l’IA dans les procédures judiciaires. Les décisions ainsi rendues soulignent que si l’adoption de l’IA se généralise, son efficacité dans les litiges demeure limitée. Elles renforcent également l’importance de considérer la prise de décision basée sur l’IA avec prudence étant donné le risque de résultats biaisés. Bien que la réglementation de l’IA en soit encore à ses premiers balbutiements, les discussions législatives menées tout au long de l’année 2024 portent à croire que des réglementations plus complètes pourraient être envisagées.
Le rôle de l’IA dans la recherche juridique et son utilisation dans les procédures judiciaires
Bien que l’IA s’annonce prometteuse pour améliorer la recherche et la rédaction juridiques, son utilisation dans le domaine juridique s’avère plutôt problématique. Le problème des « fabulations » (informations fausses générées par l’IA, y compris des cas de jurisprudence et des principes juridiques inventés de toutes pièces) figure parmi les principales préoccupations soulevées. Les outils d’IA à usage général affichent des taux de fabulation de 58 % à 82 %, tandis que même les systèmes d’IA spécialement conçus pour la recherche juridique produisent encore des résultats erronés dans 17 % à 33 % des cas[1].
La persistance de ces inexactitudes a incité les tribunaux et les organisations juridiques à émettre des avertissements sévères quant aux risques liés à l’utilisation de l’IA dans les procédures judiciaires. Comme l’ont démontré plusieurs décisions rendues en 2024, ceux qui font fi de ces mises en garde constatent souvent que l’IA affaiblit leur position juridique au lieu de la renforcer.
Conséquences des erreurs générées par l’IA
Quand on utilise l’IA pour trouver un cas de jurisprudence à l’appui d’une position juridique, il est essentiel de vérifier son exactitude. Dans une décision rendue récemment par le Conseil canadien des relations industrielles (CCRI), un plaignant non représenté avait cité 30 affaires dans son mémoire de 125 pages[2]. Fait stupéfiant, seulement deux de ces affaires étaient réelles. Bien que le CCRI n’ait pas le pouvoir légal d’imposer des dépens au plaignant, il a souligné à quel point les fausses informations générées par l’IA peuvent miner la crédibilité d’une partie et mettre en doute la fiabilité de ses arguments.
Les tribunaux se sont également interrogés sur la question de savoir si les fabulations d’IA pouvaient justifier l’imposition de dépens. Dans l’affaire Zhang v. Chen, une requête adressée à la Cour suprême de la Colombie-Britannique (BCSC), l’avocat du requérant avait présenté un cas de jurisprudence généré par l’IA, qui a ensuite été retiré avant la tenue de l’audience[3]. Cependant, à ce moment-là, l’avocat de l’intimé avait déjà consacré d’importantes ressources à corriger les inexactitudes.
La BCSC a finalement refusé d’octroyer des dépens spéciaux au motif que l’avocat du requérant n’avait pas agi dans l’intention de tromper et qu’il avait déjà fait l’objet d’une importante publicité négative. Cependant, la Cour a tenu l’avocat personnellement responsable des frais supplémentaires engagés en raison des erreurs générées par l’IA.
La fiabilité de l’IA en guise de preuve
Si certaines parties ont tendance à s’en remettre aux cas de jurisprudence générés par l’IA, d’autres ont recours aux résultats générés par l’IA en guise d’éléments de preuve. Cependant, le British Columbia Civil Resolution Tribunal (BCCRT) a récemment rejeté le recours à des résultats de recherche générés par l’IA comme éléments de preuve dans le cadre de procédures judiciaires.
Dans Yang v. Gibbs, le requérant prétendait que l’intimé s’était injustement enrichi après avoir reçu un virement électronique ainsi qu’un chèque. Pour étayer cet argument, le requérant a présenté les résultats générés par ChatGPT, qui suggéraient que l’adresse courriel de l’intimé et celle du destinataire du virement électronique étaient probablement liées au même appareil ou au même réseau local.
Cependant, le BCCRT a fait remarquer que ChatGPT avait lui-même reconnu l’incertitude de cette conclusion. Le tribunal a souligné le fait que, de par sa nature, l’information générée par l’IA n’est pas fiable et il n’a donc accordé aucun poids aux éléments de preuve générés par l’IA présentés par le requérant[4].
Biais de l’IA dans les pratiques d’emploi
L’IA a révolutionné la gestion des ressources humaines, en particulier au chapitre du recrutement, en améliorant l’efficacité et en simplifiant la sélection des candidats. Cependant, il semble de plus en plus évident que le recrutement assisté par l’IA peut renforcer les pratiques d’emploi discriminatoires, notamment la discrimination fondée sur la race et le sexe[5].
Bien que les pratiques de recrutement discriminatoires résultant de l’IA n’aient pas encore donné lieu à des litiges, certains territoires de compétence prennent des mesures législatives pour répondre à ces préoccupations. À compter du 1er janvier 2026, en vertu de la Loi de 2000 sur les normes d’emploi de l’Ontario, les employeurs comptant 25 employés ou plus devront divulguer leur utilisation de l’IA dans le cadre du processus d’embauche[6]. Ainsi, tout employeur qui a recours à l’IA pour trier, évaluer ou sélectionner des candidats doit clairement l’indiquer dans ses offres d’emploi, ce qui favorise la transparence et la responsabilité dans le recrutement assisté par l’IA.
Réglementation de l’IA au Canada
En 2022, le gouvernement fédéral du Canada a déposé le projet de loi C-27[7] comprenant notamment la Loi sur l’intelligence artificielle et les données (LIAD) – un projet de cadre visant à réglementer les systèmes d’IA et à interdire les pratiques préjudiciables associées à leur utilisation[8]. Cependant, étant donné la récente prorogation du Parlement, qui a mis fin à la session actuelle, le projet de loi C-27 est mort au feuilleton[9]. Entre-temps, l’Union européenne a adopté la Loi sur l’IA de l’UE, qui aura sans aucun doute une incidence sur les organisations canadiennes qui exercent des activités en Europe ou conçoivent des outils destinés au marché européen, et qui devrait également influer considérablement sur la réglementation canadienne qui sera adoptée dans ce domaine.
Pour l’heure, le Canada s’est doté d’un Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés, auquel un certain nombre d’organisations ont adhéré. Nous surveillerons de près l’évolution de la réglementation de l’IA au Canada et à l’étranger susceptible d’avoir des répercussions sur les organisations canadiennes.
Principaux points à retenir et conséquences pratiques
Des jugements rendus en 2024 soulignent à quel point il peut être difficile de se fier à l’IA dans le domaine juridique. Même si les outils de recherche juridique assistée par l’IA sont très répandus, leurs résultats doivent être minutieusement vérifiés. Dans le cadre d’une procédure judiciaire, les personnes doivent faire preuve de prudence et s’assurer de l’exactitude des informations générées par l’IA, car toute omission à ce chapitre peut affaiblir une position juridique ou entraîner des coûts supplémentaires en raison de la confiance accordée à des informations erronées.
Bien que l’IA ne soit pas encore soumise à une réglementation fédérale spécifique au Canada, la loi fédérale existante en matière de protection de la vie privée, la Loi sur la protection des renseignements personnels et les documents électroniques, et les lois provinciales sur la protection de la vie privée, qui lui sont très semblables, telles que la Personal Information Protection Act de l’Alberta, s’appliquent aux renseignements personnels traités par les outils d’IA. Selon la nouvelle jurisprudence, les organisations qui ont recours à l’IA pour prendre des décisions devraient mettre en place des mesures de protection afin d’éviter la délégation involontaire de pouvoirs aux systèmes d’IA. De plus, les employeurs qui utilisent l’IA dans le domaine des ressources humaines devraient s’attaquer de manière proactive aux problèmes de discrimination potentiels dans le processus de recrutement assisté par l’IA. Bien qu’aucun litige concernant des pratiques d’embauche discriminatoires découlant de l’utilisation de l’IA n’ait encore été intenté, le recours accru à l’IA dans les processus de recrutement pourrait bientôt donner lieu à des différends juridiques.
Enfin, il n’est pas impossible que le Parlement dépose un nouveau projet de loi spécifique à l’IA. Le cas échéant, les entreprises devraient envisager de prendre des mesures proactives pour s’assurer de respecter les exigences réglementaires proposées. Si vous avez des questions ou si vous êtes partie à un litige civil ou commercial, n’hésitez pas à communiquer avec un membre du groupe Litige commercial de Miller Thomson.
[1] Varun Magesh et al, « Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools » (6 juin 2024) [non publié, archivé à la Stanford Law School] DOI : https://doi.org/10.48550/arXiv.2405.20362.
[2] Choi et Lloyd’s Register Canada limitée, dans l’affaire 2024 CCRI 1146, en ligne : https://decisia.lexum.com/cirb-ccri/cirb-ccri/fr/item/522390/index.do> [Choi].
[3] Zhang v. Chen,2024 BCSC 285.
[4] Yang v. Gibbs (dba D & G Cedar Fencing), 2024 BCCRT 613, par. 21 et 22.
[5] Zhisheng Chen, « Ethics and discrimination in artificial intelligence-enabled recruitment practices » (2023) 10:567 Humanit Soc Sci Commun DOI : https://doi.org/10.1057/s41599-023-02079-x
[6] Projet de loi 149, Loi de 2024 visant à œuvrer pour les travailleurs, quatre, L.O. 2024, chap. 3 [projet de loi 149]. Loi de 2000 sur les normes d’emploi, L.O. 2000, chap. 41, par. 8.4(1).
[7] Loi sur l’intelligence artificielle et les données, soit la partie 3 du projet de loi C-27, Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois, Première session, quarante-quatrième législature, 2022 (deuxième lecture, 24 avril 2023), en ligne : <https://www.parl.ca/documentviewer/fr/44-1/projet-loi/C-27/premiere-lecture> [perma.cc/QE5C-YW6W] [LIAD].
[8] LIAD, art. 4.
[9] Ibid., art. 12.