Zoom sur la réglementation de l'IA à travers le monde

Recherche
De meilleurs soins de santé
Recherche et innovation
Faculté de droit – Section de common law
Centres et instituts de recherche

Par Université d'Ottawa

Cabinet du vice-recteur à la recherche et à l'innovation, CVRRI

Des universitaires du monde entier discutent de la législation sur l’IA lors d’une table ronde
De gauche à droite, Florian Martin-Bariteau, Célia Zolynski, Woodrow Hartzog, Sergio Branco, Nagla Rizk, Caroline Ncube et Marcelo Thompson.
Pour faire la lumière sur la scène internationale de l’intelligence artificielle (IA), l’Université d’Ottawa a invité des universitaires de renom du monde entier à Shaping AI for Just Futures, une conférence de deux jours, chapeautée par le professeur Florian Martin-Bariteau et des collègues qui s’intéressent à l’avenir de l’IA dans la société.

La conférence s’est ouverte le 19 octobre par une table ronde intitulée « Regulating AI Around the World », durant laquelle des conférencières et conférenciers de réputation internationale ont échangé sur les tendances législatives de leur région en matière d’IA.

De cette discussion présidée par le professeur Martin-Bariteau ont émergé des visions divergentes teintées par les situations propres à chaque région, mais surtout une difficulté commune : comment peut-on réglementer l’IA de manière efficace sans freiner l’innovation?

La gouvernance des données, le dilemme de Hong Kong

Marcelo Thompson, professeur de droit à l’Université de Hong Kong et diplômé de l’Université d’Ottawa, a présenté les réalités distinctes de Hong Kong et de la Chine. Si la Chine s’est dotée de lois strictes sur la sécurité des données, le cadre de protection des données de Hong Kong, lui, tire de l’arrière par rapport aux normes internationales et nécessite des mises à niveau considérables.

« Il est pratiquement impossible de réglementer les technologies et les données sans imposer de valeurs politiques », a expliqué le professeur, avant d’ajouter qu’un effort colossal allait devoir être déployé pour préserver les valeurs tout en encourageant le progrès dans le contexte politique et géographique unique de Hong Kong.

Selon lui, l’approche réglementaire de la Chine reflète l’évolution du rôle de l’État dans la gestion des défis technologiques, et soulève de grandes questions sur l’IA et la gouvernance de l’État. Dans son exposé, Marcelo Thompson a esquissé le portrait du fragile équilibre que Hong Kong et la Chine tentent de maintenir dans les eaux inconnues de la réglementation de l’IA.

Les contrastes de la région MENA

« Malgré d’étroits liens culturels et historiques, les différents pays du Moyen-Orient et de l’Afrique du Nord présentent des disparités considérables découlant entre autres des niveaux de richesse, des ressources en main-d’œuvre et de la présence des femmes sur le marché du travail », a souligné Nagla Rizk, professeure à l’Université américaine du Caire, en Égypte.

D’un côté, des pays comme les Émirats arabes unis et l’Arabie saoudite entendent devenir des chefs de file mondiaux de l’IA d’ici 2031 à coup d’investissements massifs dans les bancs d’essai et les villes intelligentes. De l’autre, la Tunisie, dont la réalité économique est bien différente, fonde sa vision sur le développement durable de l’IA, par la représentation des données et le financement des petites entreprises.

Nagla Rizk croit que la réglementation durable de l’IA doit découler d’une stratégie d’innovation intégrée et équitable englobant le travail à la demande, la confidentialité des données et le développement des compétences. Il faudrait donc améliorer le soutien des petites entreprises en IA et réduire la concentration de données qui creuse un fossé commercial entre les petites et les grandes entreprises. Il s’agit là d’un facteur clé selon la professeure d’économie, qui a exprimé des craintes quant à l’héritage des politiques de « ruissellement » des régions du Moyen-Orient et de l’Afrique du Nord datant d’avant le Printemps arabe et qui avantageaient les grandes sociétés.

La feuille de route de l’Afrique pour la réglementation de l’IA

Caroline Ncube, professeure de l’Université de Cape Town, a décrit l’environnement technologique complexe de l’Afrique. « En Afrique, la sphère de réglementation de l’IA est un véritable casse-tête, surtout que beaucoup d’États du continent ont adopté ces technologies en tant qu’utilisateurs », a-t-elle expliqué.

La professeure Ncube a souligné le rôle clé que joue l’Union africaine dans le soutien d’initiatives comme l’African AI Working Group et la publication de la feuille de route de l’Afrique pour les stratégies nationales en matière d’IA.

 La chercheuse sud-africaine a soulevé deux enjeux de réglementation cruciaux : la transparence requise dans la gouvernance pour favoriser la responsabilisation et prévenir la capture réglementaire, et l’importance d’axer la réglementation sur les droits de la personne, notamment pour protéger les populations vulnérables.

Elle a mentionné la résolution de 2021 de la Commission africaine des droits de l’homme et des peuples, qui promeut la transparence, le respect des droits de la personne et l’expertise de l’Afrique dans les technologies d’IA.

Un nouveau modèle ascendant aux États-Unis

Représentant nos voisins du Sud, Woodrow Hartzog, professeur à l’Université de Boston, a décrit la dynamique réglementaire complexe des États-Unis, où malgré plusieurs projets de loi et de longues discussions, la réglementation fédérale sur l’IA demeure floue.

Cependant, des ententes bipartites se profilent à l’horizon. Le chercheur a parlé de la réglementation des entrées et des sorties ainsi que la confidentialité des données, l’hypertrucage et l’exploitation de la main-d’œuvre, sujets qui sont de plus en plus sous les projecteurs. « C’est une démarche complexe, mais un consensus émerge », a-t-il précisé.

Le professeur Hartzog a souligné l’importance de la réglementation à l’échelle des États, dont les projets de loi sur des questions particulières relatives à l’IA, comme l’interdiction des robots armés au Massachusetts. De plus, les nouveaux règlements municipaux, comme l’interdiction pour le gouvernement d’utiliser des technologies de reconnaissance faciale, ont un effet concret. Ensemble, ces exemples indiquent une tendance ascendante : les politiques américaines sont définies à l’échelle locale pour ensuite atteindre les sphères fédérales.

La démarche prudente de l’Europe

Célia Zolynski, professeure à l’Université Panthéon-Sorbonne, en France, a fait un survol de la stratégie de réglementation de l’IA fondée sur le risque de l’Union européenne.

« La clé, c’est l’équilibre », a-t-elle affirmé. Les systèmes d’IA sont classés par niveau de risque et associés à des mesures de conformité et de responsabilisation, y compris des dispositions sur la transparence pour les utilisatrices et utilisateurs. La professeure Zolynski a rappelé l’importance d’harmoniser la réglementation de l’IA et les lois sur la protection des consommateurs sans perdre de vue l’écosystème d’IA, qui évolue constamment.

Elle a aussi parlé de la sécurité des systèmes d’IA, de la durabilité, des risques systémiques et de questions liées à l’IA générative, comme la désinformation et la violation du droit d’auteur. L’équilibre entre la stimulation de l’innovation et la protection des droits de la personne semble être au cœur des enjeux réglementaires de l’Europe.

L’« effet Bruxelles » au Brésil?

C’est Sérgio Branco, professeur à l’Institut pour la technologie et la société de Rio de Janeiro, qui a présenté la vision du Brésil fondée sur divers principes.

S’inspirant en partie du modèle européen, le Brésil classifie les systèmes d’IA dans les catégories « inacceptable » ou « à risque élevé » dans des domaines comme l’éducation, la main-d’œuvre et la migration. Il a aussi adopté des lois rigoureuses encadrant la responsabilité, tenant les fournisseurs et les exploitants responsables de tout dommage causé par l’IA.

Selon M. Branco, les fondements légaux traditionnels du Brésil combinent des principes, l’atteinte de consensus et l’adaptabilité pour créer des cadres intemporels. « Des lois trop précises deviendraient obsolètes en un rien de temps, car l’industrie de l’IA évolue à un rythme effréné; cela équivaudrait à construire dans des sables mouvants. »

La discussion laisse beaucoup de questions en suspens. Accepterons-nous une diversité dans la gouvernance de l’IA ou vivrons-nous plutôt dans un monde ayant cédé à l’« effet Bruxelles », où l’Europe établit la norme? Quelle influence l’Union européenne a-t-elle encore aujourd’hui sur la scène technologique internationale? Et verra-t-on un jour une nouvelle « Bruxelles » refaçonner lentement la feuille de route universelle de la réglementation de l’IA?