L’IA et les GAFA au temps de la COVID : une réglementation à la croisée des chemins ou qu’en est-il des droits humains?

This content is not available in the selected language.

Par Valerie Parent, doctorante à la Faculté de droit de l’Université de Montréal, coordonnatrice et chercheuse étudiante pour le regroupement JusticIA ainsi que collaboratrice aux projets OpenUM de la Chaire L.R. Wilson (droit des technologies de l’information et du commerce électronique) et Open Science UMontreal.

Photos by Tim Mossholder and by Markus Spiske on Unsplash

L’intelligence artificielle, les GAFA et la COVID : une tempête parfaite?

Bien qu’il soit encore trop tôt pour prendre la pleine mesure de toutes ses incidences, on sait d’ores et déjà que la crise sanitaire consécutive à l’apparition du nouveau virus SARS-CoV-2 a influé sur l’économie au niveau mondial et certaines de ses institutions internationales phares, notamment en ébranlant divers aspects de la globalisation. Parmi les réactions sur la scène internationale, certains ont donc lancé un appel à la reconsidération de l’agenda global et d’autres ont souligné le rôle de la COVID comme révélateur d’iniquités pour plaider que la crise doit aider à repenser nos sociétés.

Le Covid-19 est comme un scanner qui révèle les fractures des squelettes fragiles des sociétés que nous avons construites.

Antonio Guterres, Secrétaire général de l’ONU, 18 juillet 2020

Cette crise ayant par ailleurs accentué la domination des géants des technologies sur cette économie fragilisée et fait bondir la demande pour l’intelligence artificielle en entreprise, il est peut-être plus que jamais le moment de se questionner sur l’IA que nous souhaitons développer et sur la manière de la réglementer en conséquence.

La problématique des GAFA (Google, Amazon, Facebook, Apple) ou des GAFAM (quand on y inclut également Microsoft) n’est pas nouvelle mais reste toutefois actuelle alors que le Bureau de la concurrence canadien cherche à se donner plus de mordant par le biais d’amendes conséquentes avec les profits importants de ces entités, que les pratiques de concurrence de Google font l’objet d’une enquête aux États-Unis et que ces compagnies se retrouvent devant le Congrès américain.

Cette concentration du pouvoir entre les mains de quelques joueurs, exacerbée par les potentialités de l’IA, dépasse toutefois largement la stricte question économique pour nous atteindre dans nos droits humains les plus fondamentaux. La démonstration de l’influence des algorithmes dans nos vies n’étant plus à faire, on sait quels risques ils comportent notamment en termes d’atteinte au droit à la vie privée ou de manipulation de l’information et de l’opinion, par exemple par le biais de la limitation de la liberté d’expression et des bulles idéologiques, avec la fragilisation de la démocratie que ces phénomènes impliquent.

Une réglementation à la croisée des chemins : qu’en est-il des droits humains?

Le nerf de cette guerre est la collecte de données et le profilage subséquent des utilisateurs (data harvesting and profiling), comme l’a péniblement dévoilé l’affaire Facebook. En effet, « [t]he world’s most valuable resource is no longer oil, but data » et  l’ingrédient essentiel de l’IA est cette numérisation des activités humaines qui génèrent ces données. La réglementation de ce nouveau contexte est complexe, c’est le moins que l’on puisse dire. Pour reprendre les propos tenus le 17 juin 2019 par Yoshua Bengio à l’International Conference on Artificial Intelligence and Law (ICAIL), la sagesse collective et individuelle a sensiblement cru, mais pas assez pour rattraper l’avancée des outils que nous sommes en train de créer et qui permettent cette concentration de pouvoir dangereuse.

L’auto-réglementation

Dans la foulée de l’édition 2020 du Forum économique mondial de Davos, les dirigeants de Google, IBM et Microsoft ont bien livré des plaidoyers en faveur de la réglementation de l’intelligence artificielle mais ceux-ci peuvent avoir l’air d’une opération de relation publique en ce qu’ils se contentent de renvoyer la balle aux gouvernements. L’utilisation de paramètres par les GAFA pour orienter l’IA sur des valeurs humaines est quant à elle une option qui, quoique contributive, demeure glissante et ne dissipe pas l’impression que les gouvernements livrent ces décisions importantes au libre-marché.

La réglementation au niveau étatique

La pandémie a cependant eu comme effet contributoire de révéler le besoin de l’État, son rôle à jouer avec les institutions pour réglementer par le droit (« Les GAFA devant le congrès: Entrevue avec Vincent Gautrais », 6h45). Malgré tout, une récente analyse conclut que bien que plus de 25 États aient élaboré des stratégies nationales en matière d’intelligence artificielle, en vue nommément de les rendre fiables et dignes de confiance, elles ne mènent guère à plus qu’un « polite nod to human rights ». L’expérience de la COVID peut également nous laisser perplexe quant à la levée de bouclier devant les risques d’atteinte aux droits humains de la surveillance électronique associés aux outils de dépistage proposés par les différents gouvernements nationaux pour freiner la propagation du virus, alors qu’une surveillance comparable ne semble pas faire l’objet d’un outrage particulier lorsqu’elle est banalisée dans notre quotidien par les GAFA. Par ailleurs, sur l’échiquier international, la compétition interétatique en matière d’IA permet aux géants de la technologie de brandir la carte du patriotisme ( « si ce n’est pas nous, ce sera la Chine ») , ce qui n’est pas sans ajouter au marasme (alors même que cet argumentaire est remis en question).

La réglementation au niveau surpraétatique

Il existe toutefois un mouvement fort au niveau supranational qui milite pour une IA centrée sur l’humain, dont la Déclaration de Montréal et les Principes de l’OCDE sur IA sont certainement des précurseurs. Le Conseil de l’Europe reconnaît pour sa part que s’assurer que la protection des droits humains est renforcée et non menacée par l’IA est un facteur-clef pour définir le monde dans lequel nous vivons et a émis en conséquence une série de recommandations. De plus, le Comité ad hoc du Conseil de l’intelligence artificielle a tenu une première réunion du 6 au 8 juillet dernier dont l’objectif était d’élaborer des propositions concrètes sur l’étude de faisabilité d’un futur cadre juridique sur l’intelligence artificielle fondé sur les droits de l’homme, la démocratie et l’État de droit. L’OCDE poursuit pour sa part ses travaux avec le lancement d’un Partenariat mondial sur l’intelligence artificielle, afin d’encourager l’utilisation responsable de l’intelligence artificielle, dans le respect des droits de l’homme et des valeurs démocratiques.

La réglementation au niveau global

Aucune de ces initiatives n’est toutefois globale, ce qui est particulièrement problématique à l’égard de l’importance cruciale des données. La question à savoir si l’ONU doit être réactive à l’IA et au Big Data se pose dès lors. L’organisation n’y est pas insensible et a bien souligné les risques que l’acquisition de grands ensembles de données et de systèmes d’exploitation de celles-ci représente comme désavantage pour le secteur public et comme risque d’atteinte aux droits de l’homme. Il sera intéressant néanmoins de voir quelle place la propriété des données prendra à l’issue de la consultation globale menée par un groupe de 24 experts en charge de rédiger pour l’UNESCO des recommandations sur l’éthique de l’IA qui doivent former, suivant leur adoption d’ici novembre 2021, le premier instrument normatif global sur l’IA.

Le cas particulier du régime de propriété des données : quelle importance pour les droits humains?

La question de la propriété des données est d’autant plus centrale que l’innovation technologique peut représenter en elle-même une source d’iniquité au niveau international. Or, la Déclaration sur le droit au développement protège

le bien-être de l’ensemble de la population et de tous les individus, sur la base de leur participation active, libre et significative au développement et au partage équitable des bienfaits qui en découlent.

À ce titre, la notion de propriété des données pourrait se réclamer du patrimoine commun. Ce ne serait pas la première fois que cette stratégie des pays en voie de développement visant à empêcher les pays plus développés de creuser davantage entre eux un fossé par l’écart de connaissances techniques et un progrès non partagé serait déployée, notamment par le Groupe des 77 (dont l’existence reste contemporaine malgré les échecs du passé à ce chapitre). Elle repose entre autres sur la Charte des droits et devoirs économiques des États qui réitère l’égalité des États et, du même souffle, le droit d’accès aux techniques et aux savoirs.

Reste donc à voir si l’UNESCO pourrait envisager, sinon le controversé régime du patrimoine commun, à tout le moins des solutions plus novatrices à cet égard, tels que la mise en fiducie de données proposée dans le cadre de la COVID, voire la création d’une organisation internationale dédiée à la mise en œuvre de lignes directrices encadrant l’IA (Montréal est d’ailleurs préconisée pour sa neutralité et son expertise). Le plus simple devant la complexité de nos choix à cette croisée des chemins entre monopoles technologiques et droits humains sur fond de crise sanitaire brouillant nos repères serait peut-être de soumettre ces idées à l’outil de simulation que l’ONU a récemment endossé et qui permet aux législateurs de tester par avance les conséquences de leurs politiques… à condition bien sûr de pouvoir disposer de toutes les données utiles!

This content has been updated on 10 February 2022 at 16 h 11 min.

Comments

Un commentaire pour “L’IA et les GAFA au temps de la COVID : une réglementation à la croisée des chemins ou qu’en est-il des droits humains?”

Comment