IA: progrès ou danger?

HumanIA s'intéresse aux enjeux sociaux et éthiques de l'intelligence artificielle.

6 Avril 2018 à 16H54

Plusieurs experts présentent l'intelligence artificielle comme la nouvelle révolution qui, après Internet, transformera nos vies. Photo: Istock

La nouvelle application mobile Google Arts & culture, qui utilise la reconnaissance faciale (une branche de l'intelligence artificielle en pleine expansion), provoque depuis janvier dernier un engouement chez les internautes. Cet outil ludique analyse les données de votre visage et sélectionne parmi quelque 70 000 portraits célèbres celui qui vous ressemble le plus. De nombreuses personnalités publiques et même quelques joueurs du Canadien de Montréal se sont prêtés au jeu en permettant que leur égoportrait apparaisse aux côtés de leur sosie artistique.

Google Arts & culture suscite toutefois des inquiétudes. Des internautes et des spécialistes de l'intelligence artificielle, comme la professeure du Département d'informatique Marie-Jean Meurs, craignent que le véritable objectif de Google soit d'alimenter sa base de données de reconnaissance faciale. «Quels moyens avons-nous de savoir si Google garde ou non nos images et quel contrôle avons-nous de leur usage?, demande la professeure. Des personnes ont accusé l'outil de discrimination parce que des Noirs ont été associés à des peintures d'esclaves. Cette bévue aurait pu être évitée en tenant compte de la diversité et en évaluant le corpus sur lequel le système a été entraîné.»     

Marie-Jean Meurs et son collègue Dominic Martin, du Département d'organisation et ressources humaines, sont les coordonnateurs d'HumanIA, un nouveau regroupement multidisciplinaire de chercheurs qui s'intéressent aux enjeux sociaux et éthiques associés aux développements technologiques en intelligence artificielle (IA). «S'inscrivant dans une perspective humaniste, HumanIA vise à fédérer les recherches qui se déploient autour de l'intelligence artificielle, à l'UQAM et dans d'autres universités, et à devenir un pôle de référence dans ce domaine», explique Marie-Jean Meurs.  

Pour le moment, HumanIA chapeaute plus d'une quarantaine de professeurs-chercheurs provenant de toutes les facultés de l'UQAM, mais aussi d'autres universités québécoises, canadiennes, américaines et européennes. Le regroupement est en voie d'établir un vaste réseau de partenaires – entreprises et organismes – provenant de divers milieux (éducation, communications, santé), dont celui de l'intelligence artificielle. «HumanIA regroupe aussi bien des professeurs qui font de la recherche fondamentale en IA, que ceux qui s'y intéressent d'un point de vue philosophique, artistique, juridique, économique ou politique», note la chercheuse.

Une nouvelle révolution

Plusieurs experts présentent l'intelligence artificielle comme la nouvelle révolution qui, après Internet, transformera nos vies. Selon Marie-Jean Meurs et Dominic Martin, l'IA repose sur deux facteurs clés: l’augmentation de la capacité de calcul des ordinateurs, qui autorise le développement d’algorithmes d’apprentissage de plus en plus performants, et la disponibilité de données massives, qui permet à ces algorithmes d’acquérir des connaissances toujours plus précises et complexes. «Basée sur l'apprentissage de données, l'IA permet de faire accomplir à des machines ou à des systèmes dits intelligents des tâches qui, traditionnellement, étaient assumées par des humains, dit Marie-Jean Meurs. Il faut cependant être vigilant et responsable par rapport à ce que l'on fait apprendre aux systèmes.» 

L’IA promet la création de nouveaux services et produits, faciles d’accès et peu coûteux, qui permettront, notamment, d’améliorer les soins de santé, de rendre plus efficaces les transports et de faciliter l’accès à des services personnalisés. «L'IA peut contribuer au progrès social et économique, c'est indéniable, mais il faut s'assurer que ce progrès profite à tous, dit Dominic Martin. Les technologies et les données sont actuellement concentrées entre les mains d'un petit nombre d'acteurs privés, comme Google et Facebook, qui ont accès à des ressources considérables, à des experts et à des connaissances théoriques de pointe.»

Les nouvelles technologies de l’IA ont des applications dans une grande variété de domaines et peuvent avoir des retombées dans toutes les sphères de la société, observe Marie-Jean Meurs. «Il est indispensable de développer une réflexion critique et d'assurer une appropriation sociale harmonieuse et responsable des nouveaux développements qu'elles vont engendrer.»

Impacts sur le travail et la santé

L'intelligence artificielle aura des impacts majeurs dans le monde du travail. «L'automatisation croissante de nombreux secteurs économiques pourrait se traduire par des pertes d'emplois, temporaires ou permanentes, contribuant à accroître les inégalités, souligne Dominic Martin. Si on réussit à créer à grande échelle des véhicules autonomes, cela aura des retombées économiques et sociales importantes. Aux États-Unis, environ 30 % des emplois se trouvent dans le secteur du transport.»

Le remplacement des médecins par des systèmes intelligents pour établir un diagnostic relève encore de la science-fiction, mais l'IA a déjà commencé à pénétrer le secteur médical – recherche, prévention, traitement – et à servir en tant qu'outil d'aide à la décision pour le personnel soignant, fait remarquer Marie-Jean Meurs. «Elle permet aussi de faire des progrès remarquables dans la détection et l'analyse fine de tumeurs cancéreuses, à partir de banques de données d'images.»

Pour un développement égalitaire de l'IA

Marie-Jean Meurs et ses collègues Sébastien Gambs, du Département d'informatique, et Hugo Cyr, doyen de la Faculté de science politique et de droit, ont cosigné récemment le document «Pour un développement plus égalitaire de l'IA», publié récemment sur le Web. Les trois professeurs plaident pour la mise en œuvre de politiques publiques qui diminuent les risques de discrimination, favorisent la transparence et tiennent compte du contexte social dans lequel l’IA est déployée.

- Pour éviter une perte de contrôle des citoyens sur leur vie numérique, des mesures doivent être prises en matière de littératie numérique pour former l’ensemble de la population. Un minimum de littératie est nécessaire pour que chacun comprenne les enjeux éthiques et sociétaux émergents avec les avancées de l’IA.

- Les entreprises doivent s’assurer que leurs employés soient formés à détecter et à éviter d’éventuelles décisions discriminatoires provenant de l’application de systèmes intelligents. La communauté des spécialistes de l’IA doit également favoriser une plus grande diversité de ses membres pour limiter les biais inconscients que peuvent avoir les producteurs de technologies.

- Au-delà d’indispensables politiques d’appui à la formation de professionnels hautement qualifiés, les gouvernements peuvent aussi contribuer au développement de l’IA en s’associant à diverses entreprises pour automatiser certains processus gouvernementaux. Les gouvernements peuvent favoriser le développement de l’IA responsable en conditionnant l’octroi de subventions ou d’avantages financiers à des entreprises respectant certains impératifs éthiques et sociétaux. Cela pourrait s’appliquer tant aux subventions locales qu’aux partenariats développés avec des acteurs de pays émergents.

- Il faut renforcer les droits fondamentaux en matière de respect de la vie privée en généralisant notamment le droit des citoyens de savoir quelles données une entreprise possède sur eux, et comment elle les utilise et les dissémine, ainsi que le droit de demander la correction ou l’effacement de certaines données.

- Les risques d’inégalités induits par le développement de l’IA commandent la création de nouveaux organismes publics, semblables aux commissions des droits de la personne que l’on trouve aux niveaux fédéraux et provinciaux, mais jouissants d’une expertise technique spécialisée.

Questionnements éthiques

Sur le plan éthique, l'intelligence artificielle pose de nombreux défis, comme celui du manque de transparence dans la prise de décision. La structure complexe des algorithmes d’apprentissage rend difficiles la compréhension et la justification des décisions prises par ces algorithmes. Par exemple, lors d’un refus de prêt ou d’emploi, la personne concernée n’aura pas toujours connaissance des informations prises en compte et ne sera pas avisée de la logique du raisonnement ayant conduit à cette décision. Malgré l’impact que la décision peut avoir, les possibilités de recours seront limitées. L'utilisation de tels algorithmes de décision peut, par ailleurs, conduire à une perte de contrôle des citoyens sur leur vie numérique.

En mars dernier, une voiture autonome, exploitée par Uber, a causé un premier accident mortel en Arizona. Le conducteur de sécurité à bord du véhicule n'a pas été en mesure de réagir à temps pour éviter une piétonne qui traversait la rue. La voiture autonome doit évaluer plusieurs paramètres à la fois: l'espace où elle peut se déplacer, les types de véhicules autour d'elle, leurs comportements, etc. «Pour certaines personnes, il est irresponsable de laisser circuler librement de tels véhicules, sans un contrôle humain, note Dominic Martin. Comment programmer desmachines autonomes qui pourraient devoir choisir entre le risque de tuer une personne et celui d'en blesser plusieurs?»

Les algorithmes d'apprentissage reproduisent en général les biais que contiennent les données, générant potentiellement de la discrimination envers certains groupes de la population. Ainsi, aux États-Unis, de nombreuses juridictions locales utilisent des logiciels prédictifs pour tenterd’évaluer les risques de récidive des prévenus. Conçus comme des programmes «d'aide à la décision» pour les juges, lorsqu’ils doivent décider d’une mise en liberté sous caution ou d’une condamnation, ces programmes notent le plus souvent les prévenus sur une échelle de un à dix. Une étude a montré que les Afro-Américains se voyaient attribuer un risque de récidive moyen ou important deux fois plus souvent que les Blancs.

«Cela montre la nécessité d'une supervision humaine des choix éthiques et politiques, soutient Marie-Jean Meurs. Il est trop facile, comme le font certaines entreprises, d'imputer aux systèmes intelligents la responsabilité des mauvaises décisions. Derrière ces systèmes, on trouve toujours des humains.»

Tous les citoyens ne sont peut-être pas en mesure de saisir les dimensions théoriques et technologiques de l'intelligence artificielle, mais ils comprennent que celle-ci aura potentiellement un impact sur leur vie, souligne la chercheuse. «Ces dernières années, dit-elle, beaucoup d'efforts de recherche ont été consacrés au développement technologique de l'IA, et ils doivent être poursuivis. Mais il est aussi essentiel de mener des recherches sur les impacts sociaux, économiques, politiques, juridiques et culturels de l'IA. C'est la raison pour laquelle nous avons fondé HumanIA.»

Articles connexes
PARTAGER
COMMENTAIRES 0 COMMENTAIRE