En l’absence persistante de réglementation concernant l’utilisation de l’IA au Canada, les organismes de réglementation et les agences gouvernementales provinciales s’efforcent d’apporter des orientations afin de protéger la vie privée et d’autres droits de la personne au Canada. De leur côté, les organisations auraient avantage à tenir compte de ces orientations dans un objectif de conformité et en vue de respecter les attentes des parties prenantes pour une utilisation responsable de l’IA.

Le Commissaire à l’information et à la protection de la vie privée de l’Ontario (le « CIPVP ») et la Commission ontarienne des droits de la personne (la « CODP ») ont uni leurs efforts pour préparer un nouvel ensemble de principes régissant l’utilisation de l’IA dans la province. Ce guide est publié sous le nom de Principes pour l’utilisation responsable de l’intelligence artificielle (les « principes conjoints »). Ces principes conjoints viennent enrichir une liste de plus en plus étoffée de cadres nationaux en matière d’IA, conçus pour les organisations gouvernementales et les entreprises privées, notamment la Déclaration commune du Commissaire à l’information et à la protection de la vie privée de l’Ontario et de la Commission ontarienne des droits de la personne sur l’utilisation des technologies de l’intelligence artificielle (2023), la Directive sur l’utilisation responsable de l’intelligence artificielle en Ontario, le Guide sur l’utilisation de l’intelligence artificielle générative du gouvernement fédéral (2024) et le Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés. Ces guides s’inscrivent également dans la continuité des cadres internationaux, notamment de la Loi sur l’IA de l’Union européenne, du Guide de l’ANASE sur la gouvernance et l’éthique de l’IA et des Principes de l’IA de l’Organisation de coopération et de développement économiques.

Ces principes conjoints ont pour objectif d’aider les organisations à implanter des innovations fondées sur l’IA tout en protégeant la vie privée, les droits de la personne et la dignité humaine et en favorisant la confiance du public. Même s’ils ne sont pas obligatoires, le CIPVP et la CODP recommandent fortement aux organisations d’adopter ces principes afin de se conformer aux lois ontariennes sur les droits de la personne et la protection de la vie privée. Dans la perspective de la mise en œuvre de ces principes, les entreprises canadiennes pourraient juger opportun de revoir leurs politiques, pratiques, programmes de formation, contrats ou autres accords avec les fournisseurs.

Ces principes conjoints doivent avoir les caractéristiques suivantes, et chacune devant être considérée comme tout aussi importante :

  • Valides et fiables : les systèmes d’IA valides doivent objectivement atteindre les objectifs pour lesquels ils ont été conçus et offrir un rendement constant dans des circonstances diverses afin d’assurer leur exactitude. Les organisations doivent procéder régulièrement à des évaluations de la validité et de la fiabilité de chaque système d’IA.
  • Sûrs : les systèmes d’IA ne doivent pas causer de préjudice ni porter atteinte aux droits de la personne, entre autres au droit à la vie privée et à la non-discrimination. Pour maintenir la sécurité, les organisations doivent mettre en œuvre des mesures de cybersécurité rigoureuses, mener régulièrement des audits et mettre rapidement hors service les systèmes d’IA dangereux.
  • Respect de la vie privée : les systèmes d’IA doivent être élaborés selon une approche de protection de la vie privée dès la conception, qui intègre des mesures de protection de la vie privée directement dans le système afin de protéger les renseignements personnels. Les concepteurs doivent également se conformer aux lois fédérales et provinciales en matière de protection des renseignements personnels.
  • Respect des droits de la personne : les ingénieurs et concepteurs de systèmes d’IA doivent prévenir de manière proactive toute forme d’atteinte aux droits de la personne au moyen de mesures de surveillance et de rajustement des données d’apprentissage afin d’éviter les biais inhérents aux systèmes d’IA ou de les éliminer. Les organisations doivent éviter d’utiliser les mêmes systèmes d’IA auprès de groupes différents lorsque cela peut donner lieu à une discrimination par suite d’un effet préjudiciable.
  • Transparence : les organisations qui utilisent des systèmes d’IA doivent divulguer leur utilisation de manière compréhensible. En particulier, les systèmes d’IA doivent être :
    • Visibles : les organisations doivent divulguer publiquement leur façon d’utiliser les systèmes d’IA;
    • Compréhensibles : les organisations doivent rédiger des documents en langage clair expliquant le fonctionnement des systèmes d’IA et pour quelles raisons des erreurs sont susceptibles de se produire;
    • Explicables : les organisations doivent être en mesure d’expliquer de quelle manière chaque système d’IA produit des résultats et d’en justifier les raisons;
    • Traçables : les institutions doivent comprendre le mode de fonctionnement des systèmes d’IA grâce aux données d’apprentissage, à la gestion, aux indicateurs de rendement et aux évaluations périodiques.

  • Responsables : les organisations doivent préconiser une approche fondée sur l’intervention humaine (c’est-à-dire la vérification humaine des résultats de l’IA) afin de garantir une utilisation responsable. Les institutions doivent procéder à des évaluations des risques, attribuer des responsabilités de supervision, documenter les processus décisionnels et mettre en place des mécanismes pour signaler toute situation préoccupante. Un organisme indépendant doit superviser la manière dont chaque institution utilise les systèmes d’IA et a le pouvoir de mettre en œuvre des mesures correctives en cas de dysfonctionnement ou de défaillance de tout système d’IA.

Ces principes conjoints sont l’exemple le plus récent de la manière dont les gouvernements continuent de naviguer parmi les enjeux multidisciplinaires attribuables à la mise en œuvre de systèmes d’IA. Sans toutefois les imposer, les institutions devraient envisager d’intégrer les principes conjoints à leurs politiques et procédures dans le but d’accorder priorité à la conformité, de faire preuve de diligence raisonnable, de réduire les risques juridiques et de renforcer la confiance du public avant l’inévitable adoption de lois contraignantes sur l’utilisation de l’IA.

Pour en savoir plus à ce sujet ou pour discuter des enjeux abordés dans cet article, communiquez avec un membre de notre groupe Technologies, propriété intellectuelle et protection de la vie privée.