L’IA sous la loupe de la sociologie

Yves Gingras porte un regard critique sur les impacts sociaux de l’intelligence artificielle.

8 Avril 2019 à 13H52

«Pour parler d’IA, il faudrait d’abord savoir ce qu’est l’intelligence. Or, personne n’est capable de définir précisément ce qu’est l’intelligence naturelle», souligne Yves Gingras. Photo: Getty/Images

Personne n’en parlait il y a à peine quelques années. Évoquée pour la première fois en 1956 à la conférence scientifique de Dartmouth, aux États-Unis, l’expression «intelligence artificielle» (IA) ne s’est imposée dans l’actualité que tout récemment, grâce au développement d’algorithmes d’apprentissage profond – reconnaissance de textes, d’images, de paroles, aide à la décision –, couplé à l’accessibilité accrue de mégadonnées et à l’augmentation de la puissance de calcul des ordinateurs. Les conséquences sociales avérées ou anticipées de l’IA dans de multiples domaines – travail, transports, santé, justice, éducation – orientent déjà l’élaboration de politiques publiques, la mise en place de commissions consultatives, la création d’observatoires de veille et incitent même des observateurs à prédire une «révolution industrielle 4.0».

Le professeur du Département d’histoire Yves Gingras, directeur de l’Observatoire des sciences et des technologies, critique l’enflure verbale autour de l’IA. «Il est important d’analyser les effets sociologiques du langage. Le philosophe anglais John L. Austin a montré que les mots ne font pas que décrire le monde. Il existe des énoncés performatifs qui imposent leur réalité par le fait qu’ils sont exprimés par certaines personnes dans certains contextes, comme si les mots faisaient des choses. C’est le cas avec l’IA qui se retrouve aujourd’hui sur toutes les lèvres, relayée par des experts, les médias et les politiciens.»

L’historien et sociologue des sciences présentera une conférence à l’UQAM, le 10 avril, intitulée «L’intelligence sociologique confrontée à l’“intelligence artificielle”», dans le cadre des Ateliers SociologIA (voir encadré), organisés par le Centre interuniversitaire de recherche sur la science et la technologie (CIRST), en collaboration avec la Faculté de sciences humaines. Regroupant des chercheurs issus des sciences sociales et humaines, ces ateliers visent à alimenter la réflexion sur les dimensions sociologiques de l’IA.

«On doit porter un regard analytique et critique sur les impacts sociétaux de l’IA et sur les acteurs qui en font la promotion, souligne Yves Gingras. Il ne s’agit pas de dénoncer, mais de comprendre. Le rôle de la sociologie consiste à analyser les prises de décision à tous les niveaux, notamment politique, à décrire de manière rigoureuse les comportements des acteurs dans un milieu donné, leur capital social et leur réseau.»

Ateliers SociologIA

Chaque session, les Ateliers SociologIA inviteront des chercheurs qui interrogeront l’IA sous divers angles. Comment l’IA est-elle construite comme objet de recherche? Quels thèmes retiennent l’attention des chercheurs ? Quels terrains empiriques investissent-ils ? Quels concepts et quelles méthodes sont utilisés pour aborder l’IA? Quelle part est accordée à la rigueur scientifique et à la critique sociale et politique dans les réflexions sur l’IA?

Le 10 avril, le premier atelier convoquera Yves Gingras et le professeur de l’INRS Jonathan Roberge, titulaire de la Chaire de recherche du Canada sur les nouveaux environnements numériques et l’intermédiation culturelle, qui donnera la conférence «IA Québec et frères inc.: gouvernance, privatisation et science ouverte». L'événement se conclura avec une table ronde réunissant les deux conférenciers ainsi que la professeure du Département d’informatique Marie-Jean Meurs, coordonnatrice du regroupement de chercheurs HumanIA, et Myriam Moore, membre de l'Institut de recherches et d’informations socio-économiques (IRIS).

On peut assister à l’atelier en ligne du 10 avril en s’inscrivant ici.

IA et algorithmes

Dans le titre de sa conférence, le professeur a encadré les mots intelligence artificielle par des guillemets. «Plusieurs personnes tendent à comparer ou à associer automatiquement l’IA à l’intelligence naturelle, ce qui engendre beaucoup de confusion. Pour parler d’IA, il faudrait d’abord savoir ce qu’est l’intelligence. Or, personne n’est capable de définir précisément ce qu’est l’intelligence naturelle. Bonne nouvelle, le scientifique français Luc Julia, l’un des deux inventeurs de SIRI, le logiciel de reconnaissance vocale d’Apple, vient de publier un ouvrage au titre provocateur, L’intelligence artificielle n’existe pas, qui tord le cou aux idées reçues concernant l’IA.»

Directeur technique du laboratoire d’intelligence artificielle de Samsung, à Paris, Luc Julia affirme que les technologies qualifiées d’IA n’ont rien à voir avec l’intelligence. Selon lui, les humains gardent le contrôle sur les machines et robots dits intelligents, qui ne créent pas et ne réfléchissent pas, qui ne font que reconnaître et obéir à la somme des commandes que nous leur donnons. Yves Gingras abonde dans ce sens. L’IA, dit-il, c’est essentiellement des algorithmes, qui ne font que ce qu’on leur demande de faire, soit résoudre un problème ou obtenir un résultat à partir d’une suite d’opérations et d’une base de données. «Les algorithmes, toutefois, sont des boîtes noires, dont personne, à part leurs concepteurs, ne connaît le mode de fonctionnement et le contenu, lesquels peuvent être modifiés n’importe quand sans qu’on ne le sache.» En ce qui concerne les algorithmes d’aide à la décision, utilisés dans le domaine médical ou de la justice prédictive, la fiabilité des données est essentielle. «Si les algorithmes traitent des données fausses ou biaisées, ils entraîneront de mauvaises prédiction ou décisions, note le chercheur. D’où l’importance d’exiger la transparence dans la conception des algorithmes et dans la collecte des données, d’exercer un contrôle social permettant de connaître et de vérifier les équations se trouvant au cœur des algorithmes.»

«Alors que les universités doivent souvent se contenter de miettes, il est scandaleux de voir les gouvernements investir dans un secteur, l’IA, où des entreprises milliardaires possèdent déjà le moyens d’embaucher les meilleurs chercheurs.»

Yves Gingras,

Professeur au Département d'histoire

Investissements publics massifs

L’Institut de recherche et d’informations socio-économiques (IRIS) a publié, le 26 mars dernier, l’étude «Financer l’intelligence artificielle, quelles retombées économiques et sociales pour le Québec?» Cosignée par les chercheuses et doctorantes en communication Joëlle Gélinas, Myriam Lavoie-Moore et Lisiane Lomazzi, l’étude révèle que les gouvernements canadien et québécois ont investi depuis 2016 plus de 2 milliards de dollars dans la recherche, la commercialisation et les infrastructures (centres de calculs et de données) en IA, sans compter les crédits d’impôt pour les entreprises et pour l’embauche d’experts recrutés à l’international.

Selon les auteures du rapport, les capacités d’innovation risquent d’être concentrées entre les mains des géants du numérique – Facebook, Google, Apple, Microsoft –, qui possèdent déjà des laboratoires à Montréal et dont les stratégies de fusions-acquisitions leur permettent de contrôler les capitaux et l’expertise des startups locales à fort potentiel de croissance. «Alors que les universités doivent souvent se contenter de miettes, il est scandaleux de voir les gouvernements investir dans un secteur, l’IA, où des entreprises milliardaires possèdent déjà le moyens d’embaucher les meilleurs chercheurs», observe Yves Gingras.

Ces investissements massifs s’inscrivent dans la perspective de faire du Canada le plus important pôle d’expertise en IA en Amérique du Nord. «Les gouvernements réactivent la vieille rhétorique du rattrapage, note le professeur. Ils nous disent que nous sommes en retard dans tel secteur et que nous devons être les premiers au monde… mais pour combien de temps?» Dans les années 1980, rappelle Yves Gingras, le Québec a cru s’assurer un rang mondial dans l’industrie pharmaceutique grâce au joyau Biochem Pharma, avant que l’entreprise ne soit rachetée et démantelée. Puis, au début des années 2000, on s’est enthousiasmé pour le biotechnologies, la génomique et les nanotechnologies. «Sans avoir tiré de leçon de ces déboires, on mise maintenant sur l’IA et on prétend dominer bientôt ce marché mondial grâce à nos chercheurs et à leurs jeunes pousses créatrices d’algorithmes révolutionnaires qui attireront, bien sûr, les investisseurs.»

Pour cesser de dilapider des fonds publics afin de faire croître artificiellement des entreprises vouées à être achetées quelques années plus tard par des multinationales, une politique cohérente et réaliste de la recherche devrait d’abord s’ajuster aux capacités réelles du pays, soutient le chercheur. «En matière de recherche universitaire, la diversité est le meilleur garant du succès, ce qui signifie qu’il ne faut pas mettre tous ses œufs dans le même panier.»

Éviter les conflits d’intérêt

Porter un regard sociologique sur l’IA implique de s’intéresser aux relations entre les entreprises privées qui en font la promotion et les universités. «Des chercheurs universitaires qui travaillent sur l’IA siègent au C.A. de compagnies oeuvrant dans ce domaine, remarque Yves Gingras. On devrait savoir quelle casquette ils portent quand ils parlent d’IA. Pour avoir une crédibilité scientifique, il faut éviter les conflits d’intérêt et préserver l’autonomie de la recherche.»

À l’heure où le nouvel environnement technologique généré par l’IA façonne autant d’espoirs que de craintes, il est essentiel que les scientifiques évitent de tomber dans l’économie de la promesse, dit le professeur. «Leur devoir est d’adopter une approche distanciée et critique pour mieux évaluer les choix collectifs à venir, tout en prévenant certaines dérives.»   

 
PARTAGER
COMMENTAIRES 0 COMMENTAIRE