Élargir les horizons de l’intelligence artificielle centrée sur l’humain

Est disponible depuis peu sur le blogue de l’AJC ce billet écrit par Alexandra Bahary-Dionne (M.A. en droit, UQAM) – étudiante-AJC – dans le cadre de sa participation et celle de Karine Gentelet (professeure à l’UQO) et chercheure-AJC à l’école d’été sur les impacts sociétaux de l’intelligence artificielle organisée par HCI Across Borders.

L’école d’été qui avait pour titre Expanding the Horizons of Human-Centered AI (HCAI) s’est tenue au India Habitat Centre à New Delhi (Inde). L’objectif était d’explorer différentes perspectives sur le développement de l’HCAI, ainsi que les occasions et défis qu’elles impliquent. Une conversation initiée à travers 16 présentations portant sur les thèmes de la conception et des systèmes de l’IA, le machine learning centré sur l’humain, les rapports entre IA et bien commun et les perspectives critiques sur l’IA. Il faut surtout retenir qu’elle a été soutenue à travers une pluralité disciplinaire, institutionnelle et géographique. Ce sont donc tant les réflexions et initiatives de plusieurs universités en Inde (Naveen Bagalkot, Janaki Srinivasan et Aaditeshwar  Seth) qu’aux États-Unis (Rosa Arriaga, Munmun De Choudhury et Tapan  Parikh), du secteur privé (Microsoft Research avec l’ethnographe  Jacki O’Neill, Kalika Bali, Amit Sharma et Mohit Jain), des instituts de recherche (Jerome White de Wadhwani AI et Urvashi Aneja de Tandem Research), ainsi que des organismes communautaires (Haiyya, Love Matters India et MakerGhat) qui fut représentés. Soulignons aussi la présence de participants et participantes de l’Inde, du Bangladesh, du Népal, des États-Unis et du Canada. 

Qu’entend-on par HCAI?

Il s’agit d’abord d’une IA « par et pour » les humains et, ce faisant, une IA centrée sur leurs aspirations, leurs besoins – et leurs craintes – en tant que collectivité. Si les discussions que nous avons eues révèlent que l’HCAI suggère une approche contextuelle au développement de l’IA plutôt qu’une prescription théorique formelle, une telle approche a pour précepte qu’une technologie créée par les humains et qui les affecte se doit aussi d’être gouvernée par les humains, notamment par le consentement humain.  

Cette approche, et le nombre important de personnes qui créent les technologies représentées dans cet évènement ont, selon moi, plusieurs implications pour la recherche en droit dans le champ de l’IA. Dans le domaine juridique, comme ailleurs, nous avons souvent tendance à percevoir l’intelligence artificielle du point de vue de ses effets ou de ses impacts. Sur une note plus théorique, un regard sur l’innovation technologique nous outille pour étudier un moment très particulier du développement de l’IA, soit l’étape de la conception, qui implique des choix d’ordre technique, social, économique et politique. Elle met ainsi en lumière la dimension sociale de l’innovation à travers l’interaction entre la technique et le social dans le processus de conception de ces outils. On peut donc dire que l’HCAI est une approche tout indiquée pour sortir du déterminisme technique. À condition qu’elle puise dans une perspective sociologique, cette approche permet alors de sortir d’une vision déterministe où c’est la technique qui détermine le social et pour laquelle l’innovation est une force extérieure qui détermine le social – tout en reconnaissant que les technologies ne sont pas neutres et qu’elles contribuent à structurer les pratiques. Sur une note plus pragmatique, quoi de mieux que d’explorer la démarche et les pratiques des designers lorsqu’ils et elles tentent de concevoir des technologies qui utilisent l’IA afin de répondre à des besoins sociaux? 

C’est par exemple de manière relativement provocatrice que Jaron Lanier met la question des impacts de l’IA en perspective : est-ce que l’IA existe? Selon lui, il n’existe que des données et des designers – et, ajoutons-le, des structures sociales qui forment le contexte de conception et d’usage de l’IA. Ensemble, ils créent une forme de créature mystifiante que l’on appelle IA. L’HCAI est alors peut-être l’occasion, voire une preuve tangible, de constater que la technologie est une construction humaine et sociale dans la mesure où plusieurs de ces aspirations, besoins et craintes liées à l’IA varient selon la localisation géographique et sociale. Tant les motivations derrière la conception des systèmes techniques que les préoccupations que leur implantation soulève mettent en lumière différentes conceptions du bien commun, mais aussi des droits de la personne. Un usage important qui émerge des conférences est celui des chatbots pour répondre à divers besoins en termes socioéconomiques par exemple pour aider les agriculteurs et agricultrices à maximiser leurs récoltes ou pour offrir de l’information en matière de santé sexuelle partout à travers l’Inde (HAIYA et Love Matters India). Ces enseignements sont tout aussi pertinents à l’étape de l’appropriation des technologies par les usagers  et usagères : leur utilisation s’inscrit dans un contexte de pratiques spécifiques. Comme le rappelle Naveen Barangkot, l’HCAI puise dans le Human-Centered Design qui étudie les interactions humaines dans leur contexte afin de concevoir des systèmes informatiques. C’est d’ailleurs ce que font les ethnométhodologues dans le champ de l’IA, qui cherche à explorer comment la technologie peut s’intégrer dans les pratiques humaines préexistantes en observant ces pratiques, ou encore les concepteurs de chatbots qui utilisent les conversations réelles entre humains afin de nourrir leur algorithme. 

De quel(s) humain(s) parle-t-on? 

C’est la question qui s’impose au premier chef lorsque l’on parle d’HCAI : qui est cet humain au centre de l’HCAI? Un enjeu qui émerge rapidement est la représentation des personnes dans les systèmes techniques, notamment au sein des données  utilisées ; on peut par exemple penser au manque de géodiversité dans les photos de Google Images. Mais le fait que les technologies soient des constructions humaines à la fois déterminantes et déterminées implique aussi de porter une attention particulière à la relation entre les personnes qui conçoivent les technologies par rapport à celles qui les utilisent. L’une des questions au cœur de l’HCAI est cette relation – et parfois la distance sociale – entre les personnes qui conçoivent les technologies par rapport à celles qui les utilisent. À cet égard, plusieurs designers sont autocritiques quant au fait qu’ils et elles créent souvent à partir d’un problème à régler. Or, qui identifie ce problème, comment et à partir de quelle posture? On reproche alors de souvent créer pour soi-même plutôt que pour le public visé.  

Pour complexifier la chose, et puisqu’il s’agit d’humanité à l’échelle collective, on peut aussi se demander de quelle collectivité parle-t-on. Dans ce contexte, l’HCAI est un modèle qui doit permettre de sortir des discours occidentaux sur l’IA. Lucy Schuman expose alors qu’il faut revenir aux imaginaires sociaux et culturels en arrière-plan de la conception : 

In the case of the human, the prevailing figuration in Euro-American imaginaries is one of autonomous, rational agency, and projects of artificial intelligence that reiterate that culturally specific imaginaries. At stake, then, is the question of what other possible conceptions of humanness there might be, and how those might challenge current regimes of research and development in the sciences of the artificial, in which specifically located individual conceive technologies made in their own image, while figuring out the latter. 

Dans ce contexte, Unyashi Aneja et Janaki Srinivasan rappellent que l’IA est un système sociotechnique et que ses données reflètent des biais préexistants, des présomptions culturelles et des rapports de pouvoir parfois invisibles qui sont transmis dans des choix de classification. Aussi, les technologies conçues sans égard à leur contexte local peuvent échouer à tenir compte des ressources locales ainsi que des normes sociales et culturelles. Or, en prenant des décisions basées sur l’automation et sur des prédictions, on crée une forme de monopole sur le savoir basé sur ces présupposés implicites. Les enjeux de l’IA ne sont donc pas seulement économiques, sociaux et politiques, mais aussi épistémiques. 

De même, penser l’HCAI ne doit pas se limiter à la relation entre les personnes qui conçoivent et celles qui utilisent : les technologies peuvent avoir des effets différents des intentions qui présidaient à leur conception. Par exemple, les technologies destinées à certaines personnes peuvent avoir des externalités négatives et indirectes sur d’autres que ce soit pour des raisons techniques, sociales, économiques, culturelles et politiques. Ce faisant, conceptualiser une IA centrée sur un groupe de personne ne se limite pas à penser à ces personnes. Par exemple, la recherche en HCAI se consacre à explorer les emplois qui sont et seront affectés par l’IA, mais aussi ceux qui sont créés par le biais de l’IA, parfois dans des conditions délétères, comme le travail du clic, et d’autres activités du gig economy

En somme, une conception holistique des humains dont on parle implique finalement d’appréhender la question de l’environnement dans lequel ces humains évoluent. Concrètement, cela implique de collecter des données à plusieurs échelles au moment de développer un système technique. Rosa Arriga conceptualise par exemple cette approche en s’inspirant de la théorie de l’écologie des systèmes. Afin d’implanter une technologie pour servir à un groupe de personnes en particulier, il faudrait tenir compte non seulement de ce groupe, mais aussi de la communauté (école, voisins, amis), de l’environnement (social, culturel, matériel comme virtuel) et de la société au sens large (structures politiques, juridiques et économiques). Le but de cette théorie est d’arriver à concevoir des technologies à l’échelle sociétale tout en tenant compte du contexte local. Évidemment, le manque de représentation de certains groupes dans les données suppose des défis inhérents à cette approche. Elle amène aussi la question de quelles données on ne devrait pas collecter, ou encore quel type de problème l’IA ne peut pas contribuer à régler. Finalement, et de manière plus provocatrice, les approches centrées sur l’HCAI impliquent aussi de se demander pourquoi l’IA devrait-elle être centrée sur l’humain, plutôt que d’autres entités. 

Au-delà des données : la représentation citoyenne au cœur de l’innovation 

S’il est possible de penser à l’inclusion des personnes dans les données, certaines présentations amènent à penser la représentation à un autre niveau, ce qui suggère une perspective réflexive sur l’innovation : comment être inclusif non pas seulement dans les données, mais aussi dans la conception des technologies? Pour des organismes tels que Gram Vaani (présenté par Aaditeshwar Seth), une approche éthique à l’innovation passe par la gouvernance participative dans la conception des technologies par le biais de réseaux communautaires. (Son slogan? Community-powered technology.) La participation peut se faire à plusieurs niveaux : comprendre les préférences des personnes (user-centred design), concevoir l’outil avec ces personnes (cadre participatif) ou encore gérer le projet avec elles (sous forme de recherche-action). L’application Mobile Vaani, par exemple, est fondée sur le précepte que l’une des manières d’assurer la transparence et la redevabilité de l’État et des entreprises doit venir de l’intérieur, à savoir à travers un système de gouvernance plus démocratique dans la conception des technologies et des politiques à propos de ces technologies. Les modèles de gouvernance participatifs seraient alors un moyen de mitiger la concentration du pouvoir, mais aussi d’amener un changement social depuis l’intérieur. En plus de former les étudiants et étudiantes en informatique à l’éthique et à la réflexivité dans la conception des systèmes, de telles initiatives suggèrent que la représentation des travailleuses, travailleurs, usagers et usagères est nécessaire dans les prises de décisions des compagnies dans le domaine de l’IA. Pour aller plus loin, on peut aussi penser aux initiatives « par et pour » où designers, usagers et usagères ne font qu’un. 

Finalement, les initiatives communautaires en matière d’HCAI mettent en lumière la contribution inestimable des groupes d’activistes et des initiatives citoyennes dans le développement d’une IA par et pour les personnes qui en ont besoin et qui contribuent à structurer les systèmes techniques de manière itérative à partir de leurs propres expériences. En définitive, comme nous l’avons fait avec la recherche sociojuridique, peut-être devient-il indispensable de penser l’IA non pas seulement en étudiant ses impacts sur la société, et donc d’une IA qui s’imposerait de facto à la société, mais aussi d’explorer l’IA en société, de la conception à l’appropriation de ces technologies.

Ce contenu a été mis à jour le 18 décembre 2019 à 21 h 37 min.

Commentaires

Laisser un commentaire