Un chercheur et une chercheuse amorcent une réflexion sur les enjeux éthiques et critiques de l’intelligence artificielle (IA) en enseignement supérieur.

Simon Collin, professeur à la Faculté des sciences de l’éducation de l’Université du Québec à Montréal, et Emmanuelle Marceau, professeure de philosophie au Cégep du Vieux Montréal et professeure associée à l’École de santé publique de l’Université de Montréal, signent un article qui présente des enjeux éthiques et critiques liés à la conception de l’IA, aux données massives qui y sont associées et à l’usage de l’IA en enseignement supérieur. Leur article présente également des pistes de solutions pour agir sur ces enjeux.

Les enjeux liés à la conception de l’IA

Collin et Marceau expliquent que des enjeux de représentation et de représentativité accompagnent la conception des technologies. Les décisions des équipes de conception sont susceptibles d’être teintées par deux biais :

  • Le biais de « méthode du moi », selon lequel les personnes ont tendance à croire que leur expérience sociale est caractéristique de celles des individus en général.
  • Le biais de « l’usager universel », selon lequel « l’équipe de conception homogénéise à outrance la représentation qu’elle se fait des individus visés, en ramenant ces derniers à un individu archétypal, en contre-pied de la diversité des individus réels. » (Collin et Marceau, 2023, §22)

En enseignement supérieur, Collin et Marceau expliquent que ces biais risquent de favoriser le développement d’une IA répondant à certaines caractéristiques du corps enseignant et de la population étudiante, mais omettant les besoins de celles et ceux qui ne correspondent pas à ces caractéristiques.

Pour réduire ces biais, il serait souhaitable de composer des équipes de conception diversifiées. En effet, une équipe ayant divers profils sociodémographiques et ethnoculturels est plus susceptible d’assurer une meilleure représentation de différents groupes sociaux.

« Sur le plan de l’enseignement supérieur, il s’agirait de s’assurer que les équipes de conception recrutent des personnes enseignantes ayant une expertise et une expérience approfondies de la pédagogie, d’une part, et qu’elles soient représentatives de la diversité des milieux d’enseignement, d’autre part. »

(Collin et Marceau, 2023, §28)

L’implication d’enseignants et d’enseignantes dès la phase de conception de l’IA, selon les modèles de conception centrés-usagers (Labarthe, 2010, dans Collin et Marceau, 2023), permettrait aussi de mieux considérer les besoins des individus.

Le chercheur et la chercheuse signalent cependant que ces deux pistes de solution ont elles aussi des limites. D’une part, le personnel enseignant susceptible de participer au processus de conception de l’IA pourrait ne pas être représentatif de l’ensemble du personnel enseignant. D’autre part, les équipes de conception pourraient se montrer peu ouvertes envers les commentaires des personnes usagères.

Les enjeux liés aux données massives

Collin et Marceau rappellent que l’entraînement de l’IA passe par l’utilisation de données massives. Or, les données massives peuvent elles-mêmes comporter des biais qui se répercuteront sur les algorithmes.

« Transposé à l’enseignement supérieur, ce type de biais est susceptible de discriminer certains profils d’étudiantes et d’étudiants ou de milieux d’enseignement sur la base d’associations récurrentes de données générées par d’autres profils ou milieux. »

(Collin et Marceau, 2023, §24)

Les pistes de solutions en ce qui concerne la collecte et l’utilisation des données massives portent sur le consentement des individus. Malheureusement, Collin et Marceau font valoir que le consentement libre, éclairé et continu des personnes est difficile à obtenir lorsqu’il est question d’IA, cette technologie étant particulièrement opaque.

« En enseignement supérieur, ce manque de transparence implique que les établissements d’enseignement supérieur qui intègrent l’IA le font sans une compréhension fine des données collectées et de leurs implications éducatives et sociales pour les étudiantes et les étudiants, alors même qu’ils sont responsables d’assurer le consentement libre, éclairé et continu de ces derniers. » 

(Collin et Marceau, 2023, §30)

Les enjeux liés à l’usage

Pour les enseignants et les enseignantes, l’IA offre le potentiel d’automatiser plusieurs tâches. À cet égard, Collin et Marceau s’interrogent sur les effets de l’IA sur l’autonomie et le jugement professionnels.

« [L]e personnel enseignant et l’IA constituent une relation d’interdépendance étroite et permanente au sein de laquelle se distribuent les rôles, les tâches et les responsabilités pédagogiques. Or, l’automatisation de l’IA rend cette dernière progressivement apte à prendre en charge une partie croissante des tâches pédagogiques, éventuellement aux dépens de l’agentivité du personnel enseignant. »

(Collin et Marceau, 2023, §25)

Les pistes de solutions concernent ici la formation du corps enseignant et des personnes étudiantes au sujet de l’IA, de son fonctionnement et de ses implications éducatives et sociales. Par exemple, des activités délibératives sur les enjeux de l’IA pourraient contribuer au développement d’une posture critique chez les étudiants et les étudiantes.

Cependant, ce type d’activité comporte des défis  puisqu’« il est nécessaire pour les formatrices et les formateurs, ainsi que pour les futures enseignantes et les futurs enseignants de disposer des connaissances sur chacune de ces dimensions, en l’absence de quoi il leur est impossible de délibérer. » (§32)

Collin et Marceau concluent leur article en soulignant que la réflexion éthique et critique concernant l’utilisation de l’IA en enseignement supérieur devrait être amorcée dès sa conception. Cette posture critique permettrait de prévenir les risques liés à l’utilisation de l’IA, tout en tirant profit de ce qu’elle peut offrir.

Référence

Collin, S., et Marceau, E. (2023). Enjeux éthiques et critiques de l’intelligence artificielle en enseignement supérieur. Éthique publique, 24(2). https://doi.org/10.4000/ethiquepublique.7619