Alors que le Canada élabore un cadre de réglementation en matière d’intelligence artificielle (« IA »), deux modèles distincts commencent à se dessiner, soit une tendance à la déréglementation émanant des États-Unis et une réglementation fondée sur les risques provenant de l’Union européenne. Le point commun entre les États-Unis et l’UE réside dans leur méfiance à l’égard d’un ensemble disparate de règles selon l’État. Prenant pour modèle les manières de faire aux États-Unis et dans l’Union européenne, le groupe de travail fédéral sur la stratégie canadienne en matière d’IA mène actuellement des consultations en vue de l’adoption d’un cadre national. En parallèle à ces travaux, certaines provinces, notamment la Colombie-Britannique, l’Ontario, l’Alberta, le Manitoba et la Saskatchewan, ont déjà mis en œuvre ou sont en train d’instaurer leurs propres politiques et directives.
Dans le présent article, nous mettons en lumière l’évolution du droit en matière d’IA à l’échelle internationale et ce que les entreprises canadiennes devraient surveiller lors de l’adoption de ces systèmes et de la gouvernance qui s’y rattache.
La déréglementation de l’IA aux États-Unis
Les déclarations du gouvernement fédéral des États-Unis soulignent les possibles avantages économiques de l’IA et l’importance d’un cadre national en la matière. Les États-Unis se concentrent sur la « domination » économique et la réduction d’une « réglementation contraignante » sur l’IA, comme indiqué dans le décret-loi signé le 11 décembre 2025 (le « décret présidentiel[1] »). Toutefois, le décret présidentiel est également une mise en garde à l’égard des enjeux de conformité pour un « ensemble disparate de 50 réglementations différentes [par État] » et ordonne aux conseillers de « formuler conjointement une recommandation législative destinée à mettre en place une politique fédérale uniforme pour encadrer l’IA[2] ». En dernier ressort, le décret présidentiel préconise la mise en place d’un groupe de travail sur les litiges liés à l’IA « dont l’unique responsabilité sera de remettre en cause les lois des États qui ne sont pas compatibles avec [la politique nationale conçue pour imposer des contraintes minimales en matière d’IA] ».
En l’absence d’une politique nationale en matière d’IA, les répercussions à court terme du décret présidentiel pourraient se traduire par un recul de certaines lois des États, dans un contexte de vide juridique attribuable à l’absence actuelle de toute politique fédérale concrète à ce sujet. Le décret présidentiel impose ce qui suit à l’administration des États-Unis :
- publier une évaluation des lois des États dans un délai de 90 jours ;
- dresser la liste de toute « loi contraignante » qui devrait être portée à l’attention au groupe de travail sur les litiges en matière d’IA[3].
Laissant entrevoir ce que ce processus devrait permettre d’atteindre, le décret présidentiel attire expressément l’attention sur une loi de l’État du Colorado aux fins d’examen, en faisant valoir qu’elle pourrait [TRADUCTION] « contraindre les modèles d’IA à produire des résultats erronés afin d’éviter tout “traitement distinct ou effet différencié” concernant les groupes protégés ».
Ainsi, bien que le contenu de la future politique nationale demeure incertain, il est clair que l’administration des États-Unis actuellement en poste considère l’ensemble disparate de réglementations à l’échelle des États comme un obstacle à l’innovation et comme une situation à éviter dans le domaine de l’IA.
Les entreprises canadiennes exerçant des activités aux États-Unis doivent s’attendre à ce que le gouvernement fédéral américain continue de mettre l’accent sur la déréglementation de l’IA et de décourager activement la mise en œuvre et l’application des lois des États à cet égard.
Une réglementation fondée sur les risques pour l’Union européenne
À l’instar des États-Unis, l’Union européenne a été motivée par la volonté d’éviter des « réglementations nationales divergentes » et la « fragmentation du marché intérieur [de l’UE] » lors de l’adoption de la Loi sur l’intelligence artificielle de l’UE (la « Loi de l’UE[4] »). Cette loi s’applique à l’ensemble des pays de l’Union européenne et impose des exigences de conformité qui s’intensifieront progressivement selon « l’intensité et l’ampleur des risques que les systèmes d’IA peuvent entraîner[5] ». À titre d’exemple, la Loi de l’UE interdit l’utilisation de systèmes d’IA dont les risques sont jugés inacceptables et impose aux concepteurs de systèmes à risques élevés, entre autres, des pratiques de gestion des risques, de gouvernance des données, de documentation technique, de supervision par des humains et de contrôle de la qualité[6]. Bien que la Loi de l’UE ait été adoptée en juin 2024, plusieurs de ses dispositions doivent entrer en vigueur en août 2026. Vous trouverez ici une description plus détaillée de la Loi de l’UE.
Il convient de noter que, bien que l’UE et les États-Unis partagent l’objectif commun d’« éviter de créer un ensemble disparate », certaines études suggèrent que d’autres écarts entre leurs approches ont conduit le gouvernement des États-Unis et le secteur des technologies à exercer une « pression considérable » sur l’UE afin d’atténuer la rigueur de la Loi de l’UE[7]. Des modifications à la Loi de l’UE ont été proposées dans le but de réduire le fardeau administratif lié à la conformité pour les entreprises, à savoir la « Proposition de règlement omnibus numérique[8] ». Si elle est adoptée, cette proposition repousserait, entre autres, la date d’entrée en vigueur des règles relatives aux systèmes d’IA à risques élevés, accordant ainsi un délai supplémentaire pour la publication des directives de conformité[9]. Il n’est pas certain que ces modifications visent à répondre aux pressions extérieures exercées sur l’UE ou simplement à affiner ce qui constitue la première loi de cette nature.
Une politique de réglementation de l’IA en cours d’élaboration au Canada
Même si le Canada dispose de lois fédérales pour encadrer certains enjeux liés à l’IA (notamment les lois fédérales sur la protection des renseignements personnels comme la LPRPDE), aucune de ces lois n’est expressément consacrée à l’IA. Le projet de loi fédéral axé sur l’IA déposé précédemment a été abandonné lors des élections fédérales du 28 avril 2025, et les décideurs politiques travaillent actuellement sur une nouvelle proposition de politique fédérale à ce sujet. Dans un premier temps, en vue de l’instauration d’une politique nationale visant à soutenir la souveraineté numérique du Canada, à l’automne 2025, le ministre de l’Intelligence artificielle et de l’Innovation numérique a mis sur pied le Groupe de travail sur la stratégie canadienne en matière d’IA (le « Groupe de travail ») et l’avis des parties prenantes a été sollicité[10]. Le mandat du Groupe de travail consiste à proposer une politique fédérale axée sur la « vision du Canada en matière d’IA et de souveraineté numérique ». Tant que ce processus n’est pas terminé, la forme que prendra cette politique fédérale demeure incertaine.
En l’absence de cette politique fédérale, un ensemble disparate d’approches a vu le jour au Canada. Certaines provinces ont instauré des politiques et des directives provinciales, notamment la British Columbia’s Policy on the use of generative AI et un Digital Code of Practice destinées aux fonctionnaires et aux entrepreneurs ; la Loi de l’Ontario visant à renforcer la sécurité et la confiance en matière de numérique destinée à l’encadrement du secteur public ; et les Generative artificial intelligence guidelines de la Saskatchewan à l’intention des employés du gouvernement de la Saskatchewan. D’autres provinces sont en train d’élaborer des politiques, notamment le Manitoba, qui étudie actuellement les conclusions d’un groupe de travail, et l’Alberta, où le commissaire provincial à la protection de la vie privée a recommandé, en août 2025, que la province adopte sa propre politique en matière d’IA[11]. Il convient de noter que ces initiatives provinciales s’inspirent également d’exemples provenant d’autres provinces et territoires, et les conclusions de l’Alberta suggèrent que les dispositions de sa politique provinciale soient harmonisées à celles de la Loi de l’UE.
Ces initiatives sont un indicateur que le Canada pourrait voir apparaître un ensemble disparate de réglementations provinciales en matière d’IA avant que les lois fédérales n’entrent en vigueur. Nous recommandons aux entreprises canadiennes de surveiller l’évolution de la réglementation en matière d’IA, tant à l’échelle provinciale que fédérale.
Quelles sont les mesures que les entreprises canadiennes devraient prendre dès à présent?
Il est certain que le Canada ne tardera pas à mettre en place une réglementation en matière d’IA qui aura une incidence sur les entreprises canadiennes. Les entreprises qui utilisent ou développent des outils d’IA devraient agir sans tarder, en prévision de ces nouvelles politiques.
En effet, les entreprises devraient dès à présent envisager l’adoption de plusieurs mesures concrètes en préparation pour un contexte de plus en plus réglementé à cet égard, notamment :
- recenser les utilisations actuelles et anticipées de l’IA, en accordant une attention particulière au type de données que chaque système requiert et traite (p. ex., les « données sensibles » telles qu’elles sont définies dans la LPRPDE), et déterminer si leurs systèmes d’IA sont destinés au grand public ou à des utilisateurs privés ;
- suivre de près les nouvelles réglementations et directives provinciales et fédérales en matière d’IA, et harmoniser les politiques internes aux orientations communes préconisées par ces initiatives (p. ex., l’utilisation responsable de l’IA, l’imputabilité, etc.).
Les politiques en matière d’IA vont continuer d’évoluer à l’échelle internationale et au Canada et les entreprises qui se prononceront rapidement sur les questions de gouvernance et de conformité seront mieux placées que celles qui attendent les dispositions définitives d’une loi fédérale. Les avocats de Miller Thomson faisant partie du groupe Technologies, propriété intellectuelle et protection de la vie privée suivent de près les travaux du Groupe de travail sur la stratégie canadienne en matière d’IA, les décisions des provinces et les politiques internationales à ce sujet. Si vous utilisez ou développez des outils d’IA, si vous devez faire l’acquisition de systèmes d’IA ou vous adapter aux nouvelles exigences gouvernementales, notre équipe peut vous aider à mettre en place une stratégie et un cadre de gouvernance conformes aux normes canadiennes et internationales émergentes.
[1]Publication de la Maison-Blanche intitulée « Ensuring a National Policy Framework for Artificial Intelligence » (11 décembre 2025), à consulter à l’adresse https://www.whitehouse.gov/presidential-actions/2025/12/eliminating-state-law-obstruction-of-national-artificial-intelligence-policy/ (ci-après, désignée le « décret »).
[2] Idem
[3] Ibidem
[4]La Loi sur l’intelligence artificielle de l’UE,supra, note 2, préambule, paragraphe (3).
[5] Idem, préambule, paragraphe (26).
[6] Ibidem, articles 5 à 15.
[7]Article de B. Moens publié dans le Financial Times intitulé « EU set to water down landmark AI act after Big Tech pressure » (7 novembre 2025), à consulter à l’adresse https://www.ft.com/content/af6c6dbe-ce63-47cc-8923-8bce4007f6e1
[8] Voir Commission européenne, Proposition de règlement du Parlement européen et du Conseil modifiant les règlements (UE) 2024/1689 et (UE) 2018/1139 concernant la simplification de la mise en œuvre des règles harmonisées en matière d’intelligence artificielle (Proposition de règlement omnibus numérique sur l’IA), à consulter à l’adresse https://digital-strategy.ec.europa.eu/fr/library/digital-omnibus-ai-regulation-proposal.
[9] Idem, article 1, paragraphe (31).
[10]Le gouvernement du Canada lance le Groupe de travail sur la stratégie en matière d’intelligence artificielle et une consultation publique en vue de l’élaboration de la prochaine stratégie canadienne en matière d’IA (26 septembre 2025), à consulter à l’adresse https://www.canada.ca/fr/innovation-sciences-developpement-economique/nouvelles/2025/09/le-gouvernement-du-canada-lance-le-groupe-de-travail-sur-la-strategie-en-matiere-dintelligence-artificielle-et-une-consultation-publique-en-vue-de-.html.
[11]Commentaires du Commissariat à l’information et à la protection de la vie privée pour une gouvernance responsable de l’IA en Alberta (15 juillet 2025), à consulter à l’adresse https://oipc.ab.ca/office-of-the-information-and-privacy-commissioner-publishes-report-to-provincial-government-on-how-to-develop-a-framework-governing-use-of-artificial-intelligence-ai-in-alberta/
[1] The White House, Ensuring a National Policy Framework for Artificial Intelligence (Dec. 11, 2025), available at https://www.whitehouse.gov/presidential-actions/2025/12/eliminating-state-law-obstruction-of-national-artificial-intelligence-policy/ (hereinafter, the “Order”).
[2] Id.
[3] Id.
[4] Id.
[5] Id.
[6] EU AI Act, Supra n. 2 at preamble ¶ (3).
[7] Id. at preamble ¶ (26).
[8] Id. at Articles 5–15.
[9] B. Moens, Financial Times, EU set to water down landmark AI act after Big Tech pressure (Nov. 7, 2025), available at https://www.ft.com/content/af6c6dbe-ce63-47cc-8923-8bce4007f6e1
[10] See European Commission, Proposal for a Regulation of the European Parliament and of the Council Amending Regulations (EU) 2024/1689 and (EU) 2018/1139 as regards the simplification of the implementation of harmonised rules on artificial intelligence (Digital Omnibus on AI), available at https://digital-strategy.ec.europa.eu/en/library/digital-omnibus-ai-regulation-proposal.
[11] Id. at Article 1 ¶ (31).
[12] Government of Canada launches AI Strategy Task Force and public engagement on the development of the next AI strategy (Sept. 26, 2025) available at https://www.canada.ca/en/innovation-science-economic-development/news/2025/09/government-of-canada-launches-ai-strategy-task-force-and-public-engagement-on-the-development-of-the-next-ai-strategy.html.
[13] Comments from the Office of the Information and Privacy Commissioner Regarding Responsible AI Governance in Alberta (July 15, 2025), available at https://oipc.ab.ca/office-of-the-information-and-privacy-commissioner-publishes-report-to-provincial-government-on-how-to-develop-a-framework-governing-use-of-artificial-intelligence-ai-in-alberta/
[14] See, id. at 8.