Navigation – Plan du site

AccueilNumérosvol. 24, n° 2Zone libreEnjeux éthiques et critiques de l...

Zone libre

Enjeux éthiques et critiques de l’intelligence artificielle en enseignement supérieur

Simon Collin et Emmanuelle Marceau

Résumés

Si l’intelligence artificielle (IA) suscite un intérêt certain en enseignement supérieur, la réflexion éthique et critique sur les enjeux qu’elle soulève dans ce contexte particulier est moins avancée, de sorte qu’« application technique » et « réflexion éthique et critique » sont peu arrimées présentement. Cet article peut être compris comme un premier pas vers une meilleure articulation de ces notions, en permettant d’amorcer la réflexion sur des enjeux éthiques et critiques de l’IA dans le domaine d’étude et de pratique de l’enseignement supérieur, en mobilisant un point de vue interdisciplinaire. Nous illustrons cette démarche en regroupant ces enjeux sous trois pôles : la conception, les données et l’usage. Nous identifions par ailleurs des pistes de solution pour remédier à ces enjeux, tout en gardant en tête que ces solutions suscitent elles-mêmes d’autres enjeux.

Haut de page

Notes de l’auteur

Dans la mesure où cet article est le fruit d’une collaboration étroite entre les deux auteurs, leurs noms ont été ordonnancés sur le principe alphabétique des noms de famille plutôt que sur le principe d’engagement des auteurs dans la rédaction de l’article.

Texte intégral

Les auteurs tiennent à remercier les FRQ Regroupements stratégiques pour le financement accordé à Mme Marceau en lien avec la thématique « Justice et changements », accordé au Centre de droit public (CRDP) de l’Université de Montréal. Grâce à ce financement, Mme Marceau a pu bénéficier du temps nécessaire à la rédaction de cet article.

1L’éthique de l’intelligence artificielle (IA) suscite un intérêt grandissant, tel qu’en témoignent les divers regroupements scientifiques et projets de recherche mis en œuvre au Québec (voir notamment l’Observatoire international sur les impacts sociétaux de l’IA et du numérique1 et Algora Lab2). Dans le domaine de l’enseignement supérieur3, les enjeux éthiques et critiques que soulève l’IA demeurent toutefois peu documentés (Zawacki-Richter et al., 2019). Ce constat vaut pour le domaine de l’éducation dans son ensemble (Krutka, Smits et Willhelm, 2021), où la littérature scientifique met plutôt l’accent sur les applications possibles de l’IA en vue d’améliorer l’enseignement, l’apprentissage ou encore la gestion des services éducatifs.

2Afin de contribuer à une meilleure prise en charge de cette thématique par les sciences de l’éducation, nous proposons une perspective interdisciplinaire qui allie essentiellement deux domaines d’étude auxquels nous sommes affiliés, soit l’éthique, d’une part, et les technologies en éducation, d’autre part. Cette perspective interdisciplinaire nous semble doublement pertinente. Elle permet de doter l’étude des technologies en éducation de fondements théoriques et pratiques issus de l’éthique. Elle permet aussi d’outiller la réflexion éthique avec des cadres d’analyses issus des technologies en éducation, sans lesquels il serait difficile de saisir les dimensions éthiques propres à l’IA en enseignement supérieur. Nous avons récemment éprouvé cette approche interdisciplinaire lors de la rédaction d’une brève chronique intitulée L’intelligence artificielle en éducation : enjeux de justice (Collin et Marceau, 2021). Forts de cette collaboration, nous souhaitons approfondir cette réflexion préliminaire dans le cadre de cet article.

3Pour ce faire, nous commençons par décrire brièvement l’état de l’IA en enseignement supérieur. Ce tour d’horizon nous permet ensuite de définir ce qu’est un enjeu éthique et critique afin de mieux poser les fondements de notre démarche. Puis, nous cernons quelques enjeux éthiques et critiques de l’IA en enseignement supérieur, en les regroupant sous trois pôles : la conception, les données et l’usage. Ce découpage facilite à la fois la compréhension des enjeux spécifiques à chacun de ces pôles, tout en permettant de mieux attribuer les rôles et responsabilités aux divers acteurs et actrices impliqués. Dans cette optique, nous relèverons en terminant quelques pistes de solution, tout en soulignant leurs limites.

IA en enseignement supérieur : survol des enjeux éthiques et critiques

4La Déclaration de Montréal pour un développement responsable de l’IA responsable (2018) définit l’IA comme « l’ensemble des techniques qui permettent à une machine de simuler l’intelligence humaine, notamment pour apprendre, prédire, prendre des décisions et percevoir le monde environnant » (Abrassart et al., 2018 : 19). Programmer un système d’intelligence artificielle (SIA) pour simuler l’intelligence humaine peut s’avérer compliqué, même lorsque la tâche visée semble relativement simple (p. ex., reconnaître visuellement un objet). Pour surmonter ce problème, un système d’intelligence artificielle (SIA) peut faire intervenir l’apprentissage machine, une branche de l’IA dans laquelle un algorithme est programmé pour apprendre par lui-même comment effectuer une tâche, plutôt que d’être programmé pour effectuer ladite tâche (LeCun, 2016). Pour ce faire, le SIA doit être entraîné, c’est-à-dire qu’il doit générer un modèle généralisable sur la base des algorithmes et des données qui lui sont fournis. Au sein de l’apprentissage machine, l’apprentissage profond est une technique computationnelle qui utilise une série de réseaux de neurones artificiels pour permettre à un SIA de générer un modèle optimal par un entraînement de chacun des réseaux de neurones. L’apprentissage machine, et particulièrement l’apprentissage profond, sont à la base des plus récentes avancées de l’IA. Parce qu’ils impliquent une grande quantité de données, une autonomie croissante dans leur traitement (allant jusqu’à l’apprentissage non supervisé) et des conséquences sociales et politiques potentiellement nuisibles, ils génèrent aussi de nouveaux enjeux éthiques et critiques, notamment en éducation. C’est donc principalement sur ce type d’IA que se penche cet article, bien que certains des enjeux mentionnés, notamment ceux de la section « Quelques enjeux éthiques et critiques de conception », soient transversaux à l’IA, voire aux technologies dans leur ensemble.

5En éducation, l’IA suscite un intérêt croissant depuis une trentaine d’années, intérêt qui s’est accéléré récemment étant donné les avancées techniques et les différents potentiels qu’elles ouvrent pour l’éducation. Pour le cas précis de l’enseignement supérieur, Zawacki-Richter et ses collègues (2019) ont mené une revue systématique de la littérature et identifient quatre applications principales : 1) le profilage et la prédiction (p. ex., admission à un programme d’études, décrochage) ; 2) les systèmes de tutorat intelligent (p. ex., enseignement de contenus pédagogiques, rétroactions) ; 3) la mesure et l’évaluation (p. ex., notation automatique, engagement scolaire) ; 4) les systèmes adaptatifs et personnalisés (p. ex., recommandation et sélection de contenus personnalisés). Ces mêmes auteurs notent que « a stunningly low number of authors, only two out of 146 articles (1.4%), critically reflect upon ethical implications, challenges and risks of applying AI in education » (Zawacki-Richter et al., 2019 : 10).

6De cet état de la situation ressortent deux constats. D’une part, l’application de l’IA en enseignement supérieur est nettement plus dynamique que la réflexion éthique et critique sur les enjeux qu’elle soulève, de sorte qu’elle tend à s’en affranchir, alors même que la réflexion éthique et critique a pour but de l’accompagner vers une plus grande acceptabilité éducative. D’autre part, l’enseignement supérieur – et l’éducation en général – semble avoir été moins investi que d’autres secteurs quant à la réflexion sur les enjeux éthiques et critiques de l’IA, alors qu’il n’y a aucune raison de penser qu’il en soit exempt.

7À titre d’exemple, concernant le profilage et la prédiction, est-il possible d’expliquer les décisions automatisées concernant l’admission ou le refus des étudiantes et des étudiants aux programmes d’étude pour lesquels elles et ils ont postulé ? Des critères sociodémographiques et ethnoculturels sont-ils présents, risquant de renforcer certaines inégalités sociales et éducatives ? De plus, est-il possible pour le personnel administratif de valider ces décisions avant de les communiquer aux étudiantes et étudiants ? Une fois admis, ces dernières et ces derniers peuvent-ils et peuvent-ils être privés d’un service éducatif en fonction d’une prédiction effectuée par l’IA ? Si des prédictions illustrent de faibles chances de réussite dans un programme pour une étudiante ou un étudiant, est-ce acceptable de l’empêcher de poursuivre dans cette voie ? En ce sens, les prédictions peuvent-elles porter atteinte à la liberté et à l’auto-détermination des étudiantes et des étudiants ? Des questions du même ordre se posent au sujet des systèmes de tutorat intelligent, de l’évaluation, ou encore, des systèmes adaptatifs et personnalisés. En bref, force est de constater que l’introduction de l’IA en enseignement supérieur pose des enjeux éthiques et critiques de taille auxquels il faut s’attarder.

8Face à ces questionnements actuellement peu soulevés, il nous semble que le domaine d’étude des technologies en éducation, en raison de sa connaissance spécialisée de l’enseignement supérieur, a une place à prendre et gagne à investir davantage cet objet d’étude, en empruntant les acquis d’autres disciplines des sciences humaines et sociales et en les appliquant aux singularités des technologies en éducation. Le présent article peut être compris comme un premier pas dans cette direction, en permettant d’amorcer la réflexion sur des enjeux éthiques et critiques dans un domaine de pratique et d’étude – l’enseignement supérieur – qui s’y est peu intéressé jusqu’à présent, en mobilisant un point de vue interdisciplinaire. Nous illustrons cette démarche en l’appliquant à certains enjeux éthiques et critiques de l’IA en enseignement supérieur regroupés sous trois pôles : la conception, les données et l’usage.

Enjeux éthiques et critiques : définition et complémentarité

9Avant d’aborder plus directement les enjeux éthiques et critiques que pose l’IA en enseignement supérieur, nous proposons de définir succinctement ce que l’on entend par enjeux éthiques et critiques. On trouve plusieurs définitions possibles de l’éthique et de la compétence éthique dans la littérature (Marceau, 2015). Toutefois, peu s’attardent plus spécifiquement à la définition de ce qu’est un enjeu éthique à proprement parler.

10L’éthique s’entend d’abord comme une herméneutique, soit une « illumination réciproque de notre médiation sur l’excellence en humanité et des décisions singulières que nous prenons » (Malherbe, 2001 : 16). Bien que divers auteurs aient fourni des définitions variées sur l’éthique (Lacroix et al., 2006), nous retenons ici la définition de Jean-François Malherbe, puisqu’elle entend l’éthique comme une quête de l’excellence en humanité et l’envisage dans une perspective appliquée et singulière, ce qui nous semble tout indiqué lorsqu’il est question de développement responsable de SIA. En effet, le développement des SIA entraîne des réflexions sur la nature même de l’intelligence humaine (puisqu’il s’agit de la reproduire) et a des risques de dérives importants. Il appert donc d’aborder ces questions à la fois dans une quête de l’excellence en humanité et de manière appliquée. Contrairement à une perception populaire, l’éthique ne tient pas lieu d’obligation, ni d’un comportement prédéfini ou d’une conception du bien prédéterminée qu’il faut appliquer. Elle se présente plutôt comme « une réflexion sur nos pratiques individuelles et sociales et sur les valeurs qu’elles actualisent menant à leur évaluation à travers l’exercice d’un jugement pratique et à des actions conséquentes (Lacroix, Marchildon et Bégin, 2017 : 37-46) » (Marchildon, 2017, 2e §). Comme l’affirment Lacroix et Marceau :

[L]’éthique comporte une visée heuristique qui permet de s’interroger sur le « bien », dans des circonstances bien précises, visée qui n’est pas celle historiquement attribuée à la morale. Selon cette dernière compréhension de l’éthique, il s’agit de s’interroger, à partir des valeurs, des normes, des principes, des idéaux propres à une situation pour lui donner sens et identifier le « bon » comportement devant être adopté dans le « monde vécu », référant ainsi à notre nouveau rapport à la norme (2019 : 192).

11C’est ainsi que l’éthique constitue pour certains une réflexion axiologique sur l’action (Genard, 2000 ; Raz, 2009, cités dans Lacroix et Marceau, 2019 : 192).

12Depuis les années 1960, certains enjeux éthiques liés à des situations concrètes, qu’elles soient liées à de nouveaux développements humains (p. ex., le clonage) ou à des conséquences de l’action humaine (p. ex., l’environnement) ont stimulé le développement de l’éthique appliquée (Commission de l’éthique en science et technologie4). Puisqu’elle est située, l’éthique appliquée s’appuie sur une documentation factuelle des situations à l’œuvre à partir de laquelle fonder la démarche éthique. Elle permet donc de réfléchir à partir de situations ou encore d’innovations (Verchère, Legault et Patenaude, 2021). C’est notamment le cas dans le contexte de l’IA en éducation.

13En se référant à la Commission de l’éthique en science et technologie, un enjeu éthique apparaît « lorsqu’une valeur ou un principe moral est mis en jeu dans une question ou une situation5 ». Il est fréquent que les questions ou situations générant un enjeu éthique impliquent plusieurs valeurs ou principes qui entrent en conflit. En outre, un enjeu implique une activité de discernement – et de délibération, si elle est collective – entre différents principes ou valeurs, avec pour finalité d’orienter une situation de façon à s’assurer qu’elle soit le plus éthiquement acceptable possible. Nous dirons donc qu’un enjeu éthique est une situation problématique ou une préoccupation concrète qui se pose sur le plan éthique et nécessite une démarche heuristique de recherche du bien, du bon, essentiellement à partir de valeurs.

14La résolution d’un enjeu éthique nécessite le déploiement d’une compétence éthique pour déterminer l’action à engager, à partir des valeurs et d’autres repères. Mais encore faut-il que le déploiement de cette compétence éthique soit possible. Allison Marchildon souligne à cet effet que l’exercice de la compétence éthique est tributaire des possibles, en fonction de structures existantes et du « pouvoir réel » des personnes pour agir :

[S]’intéresser à la compétence éthique impliquera nécessairement de s’intéresser à la question du pouvoir et à la façon dont s’exerceront les pouvoirs en situation – des pouvoirs sur ou des pouvoirs avec – puisque cela aura une influence déterminante sur le pouvoir de la personne de déployer (ou non) sa compétence de façon effective en situation (Marchildon, 2017 : 12).

15Ainsi, l’action à engager sur le plan éthique n’est pas totalement automne des structures de pouvoirs préexistantes et sous-jacentes à l’action. D’autres questions relatives aux milieux sociaux ou aux structures organisationnelles, par exemple, viendront moduler ou altérer la capacité des personnes à mettre en œuvre la compétence éthique. Avant d’exercer la compétence éthique, il faut garder en tête que non seulement l’action est située (Lacroix, 2014), mais qu’elle est aussi tributaire du contexte plus vaste où des structures sociales, économiques, politiques, organisationnelles viennent imposer des contraintes au plein exercice de la compétence éthique des individus (Marchildon, 2017). Autrement dit, malgré toute la bonne volonté d’un individu, sa compétence à résoudre un enjeu éthique n’est pas garantie. Il faut considérer les divers jeux de pouvoir qui influencent sa capacité à agir :

La compétence éthique n’est ainsi jamais un acquis et son exercice est hautement dépendant des interactions entre les acteurs et les divers éléments des situations et contextes dans lesquels ils se trouvent. Ces interactions impliquent toujours par ailleurs l’exercice de pouvoirs, qui sont de nature fort variée, en plus d’être complexes et dynamiques […] (Marchildon, 2017 : 13).

16Dans le présent texte, l’ajout de l’adjectif « critique » nous permet d’inclure ces jeux de pouvoir qui traversent et configurent la capacité d’agir. Ainsi, nous proposons de retenir la formule « enjeux éthiques et critiques » pour la suite de ce texte.

Conceptualisation de la relation « IA – enseignement supérieur »

17Aborder les enjeux éthiques et critiques de l’IA en enseignement supérieur exige au préalable de clarifier la relation qu’entretiennent ces deux entités, et plus largement, les technologies et la société. Pour ce faire, nous recourons aux études du façonnage social de la technique (social shaping of technology) dans le domaine des sciences et technologies anglophones (p. ex., MacKenzie et Wajcman, 1999 ; Williams, 2019 ; Bijker, Hughes et Pinch, 1987 ; Leigh-Star et Griesemer, 1989 ; Akrich, Callon et Latour, 2006). En réaction à une conception communément véhiculée des technologies en sciences humaines et sociales, qui pose une différence de nature entre la technique et la société, et donc une autonomie relative de chacune par rapport à l’autre, ces approches proposent une conceptualisation plus fine et moins dichotomique de la relation « technologies – société ». Dans cette perspective, les technologies sont constituées de dimensions à la fois techniques et sociales, dans la mesure où elles ne peuvent être dissociées de logiques de conception et d’usage humains qui les sous-tendent par nature. Autrement dit, une technologie ne peut pas être réduite à un objet matériel autonome : elle inclut toujours les multiples interventions humaines qui l’ont configurée de la conception aux usages, et qui l’ont marquée des représentations, des normes et des valeurs d’une société sociohistoriquement située. Mobilisés pour l’IA en enseignement supérieur, les enjeux éthiques et critiques, tout comme l’IA en tant que telle, sont appréhendés comme le résultat de configurations sociotechniques, qui ne peuvent être attribuées ni à l’IA ni à l’enseignement supérieur spécifiquement, mais à leur agencement relationnel.

18Dans la foulée de la remise en cause de la division « technique – société », les études du façonnage social de la technique ont également contribué à renouveler la relation entre deux dimensions souvent considérées distinctement : la conception et l’usage. S’opposant à une vision « étapiste » où la conception se terminerait lors de la mise en marché, où commencerait l’usage, les approches sociotechniques ont montré que ces deux dimensions sont indissociables : de la conception aux usages, une technologie suit un processus de stabilisation progressive qui, loin d’être linéaire, implique des négociations synchroniques et diachroniques entre l’équipe de conception et les usagères et les usagers autour d’une technologie donnée et au travers de sa médiation. Une manière d’exprimer cette imbrication de la conception et de l’usage a été proposée par Madeleine Akrich (1987) par la métaphore du script, qu’elle décline en trois dimensions : l’inscription, la prescription et la souscription. Pour Akrich, la conception est définie comme une activité durant laquelle l’équipe de conception forge des scripts d’usage de plus en plus précis sur la base des représentations qu’elle se fait des individus visés et qu’elle inscrit dans les propriétés et les fonctions de la technologie qu’elle développe. En retour, la technologie prescrit aux individus réels les scripts et les représentations sous-jacentes dont elle résulte, en cadrant leurs usages, c’est-à-dire en en écartant certains et en en privilégiant d’autres, et en cadrant ces derniers, c’est-à-dire en les rendant possibles et en les contraignant tout à la fois (Akrich, 1987). En réponse aux prescriptions des technologies, les individus réels y souscrivent à des degrés divers dans la limite des contraintes techniques imposées et de leur compétence à les adapter en fonction de leurs besoins et aspirations. Cette triade « inscription – prescription – souscription » a l’avantage d’associer étroitement l’équipe de conception, les technologies et les individus au sein d’une même relation d’interdépendance, dans laquelle les actions de chaque partie sont solidaires des autres dans un processus d’ajustement mutuel. Dans le cadre des enjeux éthiques et critiques de l’IA en enseignement supérieur, nous la reprenons et la déclinons en trois pôles : la conception, les données et l’usage.

Quelques enjeux éthiques et critiques de l’IA en enseignement supérieur

19Les sections précédentes ont permis de préciser sous quel angle nous proposons d’aborder les enjeux éthiques et critiques de l’IA en enseignement supérieur. Les lignes qui suivent présentent quelques-uns de ces enjeux, en commençant par ceux qui relèvent de la conception, puis ceux qui sont issus des données, et enfin, ceux qui sont issus de l’usage, tout en gardant en tête que ces dimensions participent d’un même processus et sont en interdépendance. Dans ce sens, un enjeu éthique et critique prédominant sur le plan de la conception a nécessairement des tenants et des aboutissants sur le plan des données et des usages, et inversement.

Quelques enjeux éthiques et critiques de conception

20Nous présentons les enjeux éthiques et critiques de conception en les formulant en termes de représentation et de représentativité. Les risques associés sont donc de l’ordre de la minorisation, de la marginalisation, voire de la discrimination des groupes sociaux sous-représentés. Dans ce sens, un premier enjeu concerne les tensions et écarts potentiels entre la diversité des individus réels et les représentations que se fait l’équipe de conception des individus visés. Plus précisément, deux biais de l’équipe de conception peuvent alimenter la non-représentativité des individus réels par les individus visés, tels que se les imagine l’équipe de conception.

21Le premier biais, appelé « méthode du moi » (i-methodology, Akrich, 1995), consiste pour l’équipe de conception à se projeter indûment sur les individus visés, c’est-à-dire à penser que leur expérience sociale est représentative de celles des individus en général. Dans ce sens, les individus visés sont appréhendés par l’équipe de conception comme des « futur-moi », qui évolueraient dans des conditions sociales similaires, seraient sensibles aux mêmes valeurs, feraient l’expérience de besoins et d’aspirations semblables. Étant donné la diversité sociale des individus réels d’une part, et la spécificité des profils socioprofessionnels des équipes de conception d’autre part (en termes de niveau d’éducation, de domaine de formation, de niveau socioéconomique, de rapport aux technologies, etc.), il est peu probable que les secondes soient représentatives des premiers. Ce biais s’est régulièrement traduit par des technologies discriminatoires, les exemples les plus prégnants étant liés à la conception d’algorithmes qui font régulièrement scandale dans leur traitement des personnes à la couleur de peau foncée (voir, p. ex., Plenke, 2015). Sur le plan de l’enseignement supérieur, le biais de la méthode du moi et ses risques ont peu été documentés. Il est toutefois possible de penser qu’il opère lorsque les équipes de conception se basent indûment sur leur expérience d’étudiantes ou d’étudiants pour orienter la conception d’une technologie éducative qu’elles sont en train de développer. Les équipes de conception sur-généralisent ainsi leurs expériences, leurs valeurs et leurs représentations de l’enseignement à l’ensemble des milieux d’enseignement concernés.

22Ce premier biais est susceptible d’être exacerbé par un second, appelé « l’usager universel » (user as everybody, Oudshoorn, Rommes et Stienstra, 2004), suivant lequel l’équipe de conception homogénéise à outrance la représentation qu’elle se fait des individus visés, en ramenant ces derniers à un individu archétypal, en contre-pied de la diversité des individus réels. Avant d’être un biais éventuel, ce phénomène est une conséquence nécessaire à la standardisation qu’implique la production industrielle des technologies. Contrairement à la conception artisanale, qui permet d’aménager le processus de conception pour l’adapter aux spécificités d’un individu, la conception industrielle vise une production en masse. Bien que le produit technique puisse être plus ou moins ouvert et personnalisable, ces caractéristiques sont elles-mêmes le résultat d’une standardisation de l’individu visé. Ce processus de standardisation est également un processus de normalisation durant lequel les normes sociales dominantes ont toutes les chances d’alimenter chez l’équipe de conception la configuration d’un « individu moyen », aux dépens des groupes minoritaires et minorisés (Oudshoorn, Rommes et Stienstra, 2004). Par exemple, il est bien connu que le secteur de l’ingénierie informatique est surreprésenté par les hommes (Collet, 2004), lesquels constituent un groupe sociohistorique dominant qui a donc toutes les chances de s’imposer comme l’archétype de l’individu visé par les équipes de conception. Sur le plan de l’enseignement supérieur, le risque est que l’IA soit profilée autour de certaines caractéristiques dominantes du personnel enseignant ou de la communauté étudiante, et qu’elle ne soit pas à même de servir – ou de servir avec la même qualité et la même efficacité – celles et ceux qui ne répondent pas à ces caractéristiques. On pense ici, par exemple, aux étudiantes et étudiants à besoins particuliers, dont l’IA peut interpréter de façon erronée les comportements si elle les analyse en référence à une conception normalisante des étudiantes et des étudiants.

Quelques enjeux éthiques et critiques des données massives

23Les développements actuels de l’IA – notamment l’apprentissage machine – exigent des données massives sur lesquelles entraîner l’IA et au moyen desquelles assurer son fonctionnement. Les enjeux éthiques et critiques qui en découlent sur le plan de l’usage peuvent de nouveau être formulés en termes de représentation et de représentativité. Le premier d’entre eux concerne les biais éventuels que peuvent contenir les données massives utilisées pour entraîner et optimiser l’IA. Hors enseignement supérieur, plusieurs exemples de situations réelles ont illustré les effets discriminatoires des jeux de données biaisés. Par exemple, en 2020, l’algorithme de reconnaissance visuelle de Google a identifié deux images similaires de manière différente selon la couleur de peau des personnes représentées6. Dans la première, une main à la couleur de peau claire tient un thermomètre infrarouge sans contact. L’algorithme a correctement identifié la main et le thermomètre. Dans la seconde image, la main à une couleur de peau foncée. L’algorithme a correctement identifié la main, mais a inféré que le thermomètre était un pistolet, ce qui s’explique par le fait que les images alimentant l’algorithme associent de manière plus fréquente des personnes à la couleur de peau foncée avec des armes à feu, dans des contextes de violence physique et de criminalité.

24Transposé à l’enseignement supérieur, ce type de biais est susceptible de discriminer certains profils d’étudiantes et d’étudiants ou de milieux d’enseignement sur la base d’associations récurrentes de données générées par d’autres profils ou milieux. Par exemple, plusieurs étudiantes et étudiants utilisent leur ordinateur portable personnel en cours, parfois sur imposition de leur programme d’étude. Par leur accès permanent aux technologies, ces étudiantes et étudiants sont susceptibles de les utiliser plus fréquemment et plus spontanément que des étudiantes et étudiants qui ne le font pas, que ce soit par choix ou par impossibilité d’avoir accès à de l’équipement informatique en cours. Dans ce contexte, le risque est alors que les étudiantes et les étudiants plus connectés soient sur-représentés dans les données massives qui alimentent une IA aux dépens des étudiantes et étudiants moins connectés, dans la mesure où ils l’utilisent plus régulièrement. On comprend donc que le biais de sur-représentativité de certains profils d’étudiantes et d’étudiants ou de certains milieux d’enseignement peut recouper les stratifications éducatives existantes, et ainsi contribuer à les maintenir, voire à les renforcer.

Quelques enjeux éthiques et critiques d’usage

25En reprenant les apports des études du façonnage social de la technique, le personnel enseignant et l’IA constituent une relation d’interdépendance étroite et permanente au sein de laquelle se distribuent les rôles, les tâches et les responsabilités pédagogiques. Or, l’automatisation de l’IA rend cette dernière progressivement apte à prendre en charge une partie croissante des tâches pédagogiques, éventuellement aux dépens de l’agentivité du personnel enseignant. Ceci pose la question de la préservation de l’autonomie et du jugement professionnels de ce dernier. Sur ce point, Lacroix et Boudreau (2017) signalent que « la compétence éthique se déploie plus qu’elle ne se conçoit ! » En effet, selon ces auteurs :

[S]i cette notion de compétence se vit plus qu’elle ne se conçoit, elle est par essence difficilement saisissable, ce qui risque de créer d’importants problèmes pour quiconque voudra l’enseigner, l’évaluer ou la déployer en milieu de travail comme à l’école (Lacroix et Boudreau, 2017).

26Ainsi, la complexité conceptuelle du déploiement de la compétence éthique nous mène à conserver une réserve à savoir si cette compétence peut être artificiellement recréée, et a fortiori, programmée en amont de son déploiement. Dans cette optique, si l’IA peut soutenir la prise de décision, elle ne peut se substituer au jugement professionnel.

Pistes de solution et leurs limites

27En réponse aux différents types d’enjeux évoqués ci-dessus, nous proposons de terminer cet article en donnant un aperçu des pistes de solution qui sont susceptibles d’y répondre. Nous abordons d’abord celles qui relèvent de la conception, puis celles qui relèvent des données et enfin celles qui ont trait à l’usage.

Sur le plan de la conception

28Pour réduire les déficits possibles de représentativité par les équipes de conception, certaines stratégies ont été mises en œuvre au sein des équipes de conception. La première consiste à diversifier leur composition sociodémographique et ethnoculturelle afin d’assurer une meilleure représentation des différents groupes sociaux visés. Sur le plan de l’enseignement supérieur, il s’agirait de s’assurer que les équipes de conception recrutent des personnes enseignantes ayant une expertise et une expérience approfondies de la pédagogie, d’une part, et qu’elles soient représentatives de la diversité des milieux d’enseignement, d’autre part. Une stratégie voisine consiste à opter pour des modèles de conception « centrés-usager » (Labarthe, 2010), c’est-à-dire des modèles dans lesquels les individus réels sont impliqués de manière significative à différents moments du processus de conception de façon à configurer l’individu visé au plus proche des individus réels, notamment au moyen d’analyses des besoins, de tests-pilotes, de versions bêta, etc. Sur le plan de l’enseignement supérieur, cela implique de solliciter les milieux d’enseignement dès la phase de conception et de poursuivre l’optimisation de l’IA une fois qu’elle est en usage.

29Ces deux stratégies connaissent toutefois des limites. La première a trait à la représentativité du personnel et des milieux d’enseignement qui interviennent dans le processus de conception, que ce soit en tant que membres de l’équipe de conception ou en tant qu’individus réels. Se pose la question de savoir dans quelle mesure ils sont représentatifs de la diversité des milieux visés par l’IA. À titre d’exemple, il est logique de penser que les personnes enseignantes les plus engagées dans l’intégration pédagogique des technologies sont également celles qui sont les plus portées à collaborer avec les équipes de conception lors de la conception de l’IA. En nous basant sur la typologie d’Everett Rogers (2003), ces personnes enseignantes ne représentent pourtant qu’environ 15 % d’une population enseignante donnée et ont des caractéristiques psychologiques particulières (Geoghegan, 1994), de sorte qu’elles ne sont pas représentatives du personnel enseignant dans son ensemble. Ce dernier étant moins porté à utiliser les technologies, il est susceptible de rencontrer plus de difficultés dans la compréhension et l’utilisation de l’IA, ce qui a des implications, par exemple, sur le nombre et la sophistication des fonctions pédagogiques que cette dernière propose. Une autre limite est plus générale. Elle a trait au fait que l’équipe de conception, étant donné son fort investissement dans le développement d’une IA, s’en attribue non seulement la propriété mais aussi la paternité : la technologie est leur « bébé » (Cockburn, 1997 : 364). Dans cette logique, le risque est que l’avis du personnel de l’enseignement supérieur soit minoré et sous-estimé, dès lors qu’il ne concorde pas avec celui de l’équipe de conception, dans la mesure où il est jugé moins légitime et moins connaissant que l’équipe de conception.

Sur le plan des données

30Sur le plan des données, les pistes de solution portent, entre autres, sur le consentement des individus. En effet, un système de consentement libre, éclairé et continu est une voie possible pour un plus grand contrôle sur les données collectées, incluant leurs biais éventuels. Cependant, il existe plusieurs distorsions du consentement dans le cas de l’IA en général, et en enseignement supérieur en particulier. En premier lieu, l’IA est opaque à plus d’un titre : elle est techniquement complexe, de sorte que comprendre les implications éthiques et critiques des données qu’elle collecte est difficile pour un individu (Hakimi, Eynon et Murphy, 2021). En outre, certaines techniques computationnelles (p. ex., réseaux de neurones) ne permettent pas d’expliquer les décisions qui sont prises (Berendt, Littlejohn et Blakemore, 2020). Lorsque l’IA est développée par une compagnie privée, s’ajoute aussi l’opacité reliée au modèle d’affaires, lequel, pour rester compétitif, ne privilégie pas des algorithmes libres et ouverts. Pour ces différentes raisons, l’IA est une « boîte noire » qu’il est difficile d’ouvrir, de sorte que le consentement à la collecte de données personnelles est d’emblée contrecarré par le manque de transparence de l’IA. En enseignement supérieur, ce manque de transparence implique que les établissements d’enseignement supérieur qui intègrent l’IA le font sans une compréhension fine des données collectées et de leurs implications éducatives et sociales pour les étudiantes et les étudiants, alors même qu’ils sont responsables d’assurer le consentement libre, éclairé et continu de ces derniers. En somme, l’IA en enseignement supérieur peut générer une cascade d’opacité : opacité des données et de leur traitement par les compagnies qui les développent ; opacité des implications éducatives et sociales pour les établissements d’enseignement supérieur qui les implantent ; donc opacité des étudiantes et des étudiants et du personnel enseignant lorsqu’ils y consentent.

Sur le plan de l’usage

31En enseignement supérieur, les pistes de solution pour répondre aux enjeux éthiques et critiques de l’IA sur le plan de l’usage sont orientées vers la formation du personnel enseignant et des étudiantes et des étudiants au fonctionnement technique de l’IA et à ses implications éducatives et sociales.

32Par exemple, il est possible de prévoir une activité délibérative sur les enjeux de l’IA pour le marché du travail, dont l’objectif est de développer chez les étudiantes et les étudiants une posture critique et un pouvoir d’agir sur l’IA. Cette piste pédagogique est celle poursuivie, sur le plan scientifique, par Daniel Krutka, Marie Heath et Bret Staudt Willet (2019). Ces auteurs proposent un modèle technoéthique visant le développement de compétences critiques des futures enseignantes et des futurs enseignants face à l’IA au moyen de la délibération. Ces dernières et ces derniers sont alors amenés à considérer l’IA dans ses différentes dimensions : éthique, bien sûr, mais aussi légale, démocratique, économique, technologique et pédagogique. Bien que ce modèle soit exhaustif, une de ses limites réside sans doute sa faisabilité : pour le mettre en œuvre, il est nécessaire pour les formatrices et les formateurs, ainsi que pour les futures enseignantes et les futurs enseignants de disposer des connaissances sur chacune de ces dimensions, en l’absence de quoi il leur est impossible de délibérer. Or, à titre d’exemple, les aspects légaux de l’IA en éducation ne font pas partie des contenus de formation des futures enseignantes et des futurs enseignants et demandent donc un travail d’appropriation préalablement à la délibération. Une autre limite de ce modèle est qu’il n’implique pas les administratrices et les administrateurs des établissements, qui sont bien souvent celles et ceux à qui il revient de choisir le SIA qui sera adopté par leur établissement.

Conclusion

33L’objectif de cet article était d’amorcer la réflexion sur les enjeux éthiques et critiques de l’IA en enseignement supérieur en mobilisant un point de vue interdisciplinaire. Nous avons illustré cette démarche en l’appliquant à certains enjeux éthiques et critiques de l’IA en enseignement supérieur regroupés en trois pôles : la conception, les données et l’usage. Nous avons aussi souligné des pistes de solution qui permettraient de prendre en compte ces enjeux éthiques et critiques, mais qui connaissent elles aussi des limites, de sorte que la réflexion éthique et critique sur l’IA en enseignement supérieur ne semble pas disposer de leviers d’action clairs présentement.

34Loin d’une posture technophobe, l’idée de s’intéresser aux enjeux éthiques et critiques de l’IA en enseignement supérieur est de prévenir les risques qu’elle peut générer tout en saisissant les occasions qu’elle offre pour l’enseignement supérieur. De ce point de vue, la réflexion sur les enjeux éthiques et critiques de l’IA en enseignement supérieur gagne à être amorcée dès la phase de conception et tout au long de l’usage, et en étroite relation avec ses visées applicatives. Ce postulat implique que les logiques applicatives et éthiques et critiques ne sont pas incompatibles par nature. Si tel était le cas, le développement de l’une se ferait aux dépens de l’autre. S’il est vrai que ces logiques peuvent être en tension, l’enjeu principal de les travailler conjointement de la conception à l’usage est précisément de les arrimer au mieux, avec la finalité de renforcer l’acceptabilité éducative de l’IA. En résumé, application de l’IA et réflexion sur ses enjeux éthiques et critiques en enseignement supérieur ne devraient pas aller l’un sans l’autre. On retrouve ici les préoccupations de l’ethics by design (Iphofen et Kritikos, 2021 ; Dignum et al., 2018), qui s’intéresse aux principes éthiques de l’IA et à leur mise en œuvre au sein des équipes de conception, mais aussi au sein des SIA lors de leur usage. Dans la mesure où l’enseignement supérieur – et l’éducation en général – semble avoir moins fait l’objet que d’autres secteurs d’une réflexion sur les enjeux éthiques et critiques de l’IA, il gagne à tirer profit des acquis d’autres disciplines des sciences humaines et sociales en les adaptant aux singularités des technologies en éducation.

35Il revient donc aux communautés éducative, scientifique et technologique de l’IA en enseignement supérieur de lier étroitement ces deux dimensions ou de limiter les développements de l’IA de façon à ce que les implications éducatives de cette dernière soient contrôlables. Chose certaine, l’absence de moyens pleins et entiers pour anticiper et résoudre les enjeux éthiques et critiques relatifs à l’intégration des SIA en enseignement supérieur comme c’est le cas actuellement soulève des préoccupations réelles.

Haut de page

Bibliographie

Abrassart, Christophe et al. (2018), Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, Montréal, https://www.declarationmontreal-iaresponsable.com/_files/ugd/ebc3a3_28b2dfe7ee13479caaf820477de1b8bc.pdf?index=true (consulté le 12 novembre 2022).

Akrich, Madeleine (1987), « Comment décrire les objets techniques ? », Techniques et Cultures, no 9, p. 49-64

Akrich, Madeleine (1995), « User representations: Practices, methods and sociology », dans T. Misa, J. Schot et A. Rip (dir.), Managing technology in society: The approach of constructive technology assessment, London, Pinter Publishers, p. 167-84.

Akrich, Madeleine, Michel Callon et Bruno Latour (dir.) (2006), Sociologie de la traduction : textes fondateurs, Paris, Presses des Mines.

Berendt, Bettina, Allison Littlejohn et Mike Blakemore (2020), « AI in education: learner choice and fundamental rights », Learning, Media and Technology, vol. 45, no 3, p. 312-324.

Bijker, Wiebe, Thomas Hughes et Trevor Pinch (dir.) (1987), The Social Construction of Technological Systems, Cambridge, Cambridge, MIT Press

Cockburn, Cynthia (1997), « Domestic technologies: Cinderella and the engineers », Women’s Studies International Forum, vol. 20, no 3, p. 361-371.

Collet, Isabelle (2004), « La disparition des filles dans les études d’informatique: les conséquences d’un changement de représentation », Carrefour de l’éducation, vol. 1, no 17, p. 42-56.

Collin, Simon et Emmanuelle Marceau (2021), « L’intelligence artificielle en éducation : enjeux de justice », Formation et profession, revue scientifique internationale en éducation, vol. 29, no 2, p. 1-4, https://formation-profession.org/articles/live/230 (consulté le 12 novembre 2022).

Dignum, Virginia et al. (2018), Ethics by Design: Necessity or Curse? Actes de colloque de l’AIES’18, Nouvelle-Orléans, 2-3 février.

Geoghegan, William (1994), What ever happened to instructional technology? Présentation à la 22e Annual Conference of the International Business Schools Computing Association Baltimore, Maryland, 17-20 juillet.

Hakimi, Laura, Rebecca Eynon et Victoria Murphy (2021), « The Ethics of Using Digital Trace Data in Education: A Thematic Review of the Research Landscape », Review of Educational Research, vol. 91, no 5, p. 671-717.

Iphofen, Ron, et Mihalis Kritikos (2021), « Regulating artificial intelligence and robotics: ethics by design in a digital society », Contemporary Social Science, vol. 16, no 2, p. 170-184.

Krutka, Daniel, Marie Heath et Bret Staudt Willet (2019), « Foregrounding technoethics: Toward critical perspectives in technology and teacher education », Journal of Technology and Teacher Education, vol. 27, no 4, p. 555-574.

Krutka, Daniel, Ryan Smits et Troy Willhelm (2021), « Don’t Be Evil: Should We Use Google in Schools? », TechTrends, https://doi.org/10.1007/s11528-021-00599-4 (consulté le 12 novembre 2022).

Labarthe, Fabien (2010), « Design et SHS dans le processus d’innovation centrée-usager : quels apports réciproques ? » Échappées, vol. 2, p. 14-25.

Lacroix, André (2014), « La philosophie en action », dans A. Lacroix (dir.), Quand la philosophie doit s’appliquer, Paris, Éditions Hermann, p. 79-116.

Lacroix, André (dir.) et al. (2006), « Éthique appliquée, éthique engagée : réflexion sur une notion », Montréal, Liber.

Lacroix, André et Emmanuelle Marceau (2019), « Éthique et droit : des rapports complexes et variables pour réguler l’espace public », dans S. Bernatchez et L. Lalonde (dir.), Approches et fondements du droit, Cowansville, Éditions Yvon Blais, p. 187-216.

Lacroix, André et Marie-Claude Boudreau (2017), « Présentation », Éthique publique, vol. 19, no 1, https://doi.org/10.4000/ethiquepublique.2874 (consulté le 12 novembre 2022).

Lacroix, André, Allison Marchildon et Luc Bégin (2017), Former à l’éthique en organisation : une approche pragmatique, Québec, Presses de l’Université du Québec.

LeCun, Yann (2016), Les enjeux de la recherche en intelligence artificielle, Collège de France, https://interstices.info/les-enjeux-de-la-recherche-en-intelligence-artificielle/ (consulté le 12 novembre 2022).

Leigh-Star, Susan et James Griesemer (1989), « Institutional Ecology, “Translations” and Boundary Objects: Amateurs and Professionals in Berkeley’s Museum of Vertebrate Zoology », Social Studies of Science, no 3, p. 387-420

MacKenzie, Donald et Judy Wajcman (dir.) (1999), The social shaping of technology, 2de édition, Maidenhead, Open University Press.

Malherbe, Jean-François (2001), « L’éthique comme pratique critique », dans J.-F. Malherbe (dir.), Déjouer l’interdit de penser. Essais d’éthique critique, Montréal, Liber, p. 15-28.

Marceau, Emmanuelle (2015), Les défis de l’éthicisation du droit : validité conceptuelle des lois éthiques en contexte québécois, thèse de doctorat non publiée, Université de Sherbrooke.

Marchildon, Allison (2017), « Le pouvoir de déployer la compétence éthique », Éthique publique, vol. 19, no 1, https://journals.openedition.org/ethiquepublique/2920 (consulté le 12 novembre 2022).

Oudshoorn, Nelly, Els Rommes et Marcelle Stienstra (2004), « Configuring the User as Everybody: Gender and Design Cultures in Information and Communication Technologies », Science Technology and Human Values, vol. 29, no 1, p. 30-63.

Plenke, Max (2015), « Google just misidentified 2 African-Americans in the most racist way possible », Mic, https://www.mic.com/articles/121555/google-photos-misidentifies-african-americans-as-gorillas (consulté le 25 novembre 2021).

Rogers, Everett (2003), The diffusion of innovations, 5e édition, New York, The Free Press.

Verchère, Céline, Johane Patenaude et Georges-Auguste Legault (2021), Innover en conscience : une approche par les usagers responsables, Montréal, Les éditions Nullius In Verba.

Williams, Robin (2019), « The social shaping of technology (SST) », dans T. Pittinsky (dir.), Science, Technology, and Society: New Perspectives and Directions, Cambridge, Cambridge University Press, p. 138-162.

Zawacki-Richter, Olaf et al. (2019), « Systematic review of research on artificial intelligence applications in higher education – where are the educators? », International Journal of Educational Technology in Higher Education, vol. 16, no 39, https://doi.org/10.1186/s41239-019-0171-0 (consulté le 12 novembre 2022).

Haut de page

Pour citer cet article

Référence électronique

Simon Collin et Emmanuelle Marceau, « Enjeux éthiques et critiques de l’intelligence artificielle en enseignement supérieur »Éthique publique [En ligne], vol. 24, n° 2 | 2022, mis en ligne le 23 janvier 2023, consulté le 28 mars 2024. URL : http://journals.openedition.org/ethiquepublique/7619 ; DOI : https://doi.org/10.4000/ethiquepublique.7619

Haut de page

Auteurs

Simon Collin

Simon Collin est professeur à la Faculté des sciences de l’éducation de l’Université du Québec à Montréal (UQAM). Il est titulaire de la Chaire de recherche du Canada sur l’équité numérique en éducation. Il est également chercheur au Centre de recherche interuniversitaire sur la formation et la profession enseignante (CRIFPE) et dans l’axe « Éducation et capacitation » de l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA), ainsi qu’à HumanIA. Il s’intéresse aux enjeux d’équité et de démocratisation que suscitent les technologies en éducation, qu’il aborde au croisement des travaux interdisciplinaires de la technique et des théories critiques.

Emmanuelle Marceau

Emmanuelle Marceau est professeure de philosophie au cégep du Vieux Montréal et professeure associée à l’École de santé publique (ESPUM), de l’Université de Montréal. Elle est également chargée de cours à l’Université de Sherbrooke. Elle est chercheure associée au Centre de recherche en éthique (CRÉ), au Centre de recherche en droit public (CRDP), à HumanIA et dans l’axe « gouvernance et éthique » à l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA). Elle s’intéresse aux modes de gouvernance et à leurs interactions (éthique appliquée, droit et déontologie), dans une perspective de recherche de justice.

Haut de page

Droits d’auteur

Le texte et les autres éléments (illustrations, fichiers annexes importés), sont « Tous droits réservés », sauf mention contraire.

Haut de page
Rechercher dans OpenEdition Search

Vous allez être redirigé vers OpenEdition Search