Webconférence “Éducation & Intelligence artificielle responsable”

Education Intelligence artificielle

Auteures : Esther Gagneux publié le 6 octobre 2024

Cette conférence sur le thème de l’Éducation et l’Intelligence artificielle responsable était organisée par EPALE France, la plateforme d’Erasmus+ et animée par la journaliste Emmanuelle Bastide le 9 juillet 2024. C’était l’occasion de rappeler, lors de la première table ronde, au-delà des multiples opportunités que l’intelligence artificielle nous offre, les enjeux éthiques qu’elle soulève.

L'intelligence artificielle : ni intelligente, ni artificielle !

L’IA très mal nommée

Yael Benayoun, consultante et chercheuse indépendante en sciences sociales, rappelle que l’intelligence artificielle est très mal nommée : elle n’est ni artificielle, ni intelligente, ni autonome.

Les algorithmes sont une série d’instructions automatisées. Pour que les instructions soient le plus fiables possibles, on a besoin d’un nombre gigantesque de données. Cependant, cela ne suffit pas : il faut les rendre intelligibles par la machine.

Par exemple, avec ChatGPT, pour rendre un texte intelligible par la machine, on va le séquencer en petits groupes.

Il faut avoir conscience que ChatGPT en dit davantage sur nos normes d’écriture que sur l’intelligence du dispositif. La machine n’a pas de conscience. Cela souligne bien la centralité du jeu de données qui est initialement fourni.

Des intérêts privés et de la spéculation

Derrière tous ces outils, il y a des entreprises et des intérêts privés. Si ces outils peuvent apparaître comme gratuits pour l’utilisateur, ce n’est qu’une première étape. C’est aussi, pour ces entreprises, une manière de pouvoir utiliser le travail gratuit que nous faisons en discutant avec ces dispositifs.

L’intelligence artificielle est un marché de spéculation. Cela crée une pression sur ces entreprises : pour que le modèle fonctionne, il y a une utilisation importante de travailleurs du Sud.

Par ailleurs, ces dispositifs d’intelligence artificielle sont utilisés pour aller vers plus d’austérité et de restriction budgétaire. En France, il existe des associations qui ont un rôle de vigie sur ces questions-là, par exemple la Quadrature du Net.

Le Défenseur des Droits : enjeux de l'impact de l'IA sur les droits

Les compétences du Défenseur des droits qui concernent l’IA

Gabrielle Du Boucher, chargée de mission numérique, droits et libertés du Défenseur des Droits, rappelle que le Défenseur des droits est compétent sur :

  • La lutte contre la discrimination : les systèmes d’IA sont susceptibles d’automatiser et de systématiser les discriminations qui agissent d’ores et déjà dans nos sociétés.
  • Les droits de l’enfant : les systèmes de recommandations de contenus amènent à créer des bulles de filtres. Le caractère addictif de ces algorithmes de recommandation n’est pas toujours conforme aux droits des enfants, comme le montre une enquête d’Amnesty International sur le fil “Pour toi” de TikTok, qui peut pousser en particulier aux idées suicidaires.
  • Les risques sur les droits et libertés en tant qu’usagers/usagères de l’accès aux services publics. Depuis quelques années, le législateur a autorisé que des décisions entièrement automatisées puissent être prises à notre égard en tant qu’usagers/usagères du service public. Il a mis en place des garanties, notamment :
    Que l’usager/usagère soit informé du fait qu’il y a un système d’IA qui a servi à prendre la décision
    Que le service public ait la maîtrise du fonctionnement de l’algorithme.

Les premières mesures européennes pour agir pour une “IA responsable”

L’IA Act a été adopté en juin 2024 par les Etats membres de l’Union européenne. Il s’agit du premier règlement européen sur l’IA. Il organise une pyramide en fonction des risques présents dans les différents systèmes d’IA.
En termes d’éducation, 3 systèmes d’IA sont considérés comme à haut risque :

  • Les systèmes d’IA qui servent à affecter les élèves
  • Les systèmes d’IA qui servent à évaluer leurs apprentissages
  • Les systèmes d’IA qui servent à détecter les comportements interdits pendant les examens

Ces systèmes sont soumis à un certain nombre d’obligations.

Gabrielle Du Boucher souligne l’importance de la formation et de la sensibilisation. L’intelligence artificielle pourra être utilisée de manière responsable uniquement si cela passe par l’éducation à son fonctionnement et à ses risques. En ce sens, l’attestation qui certifie l’éducation au numérique va devenir obligatoire au collège, et elle inclut désormais les risques liés à l’intelligence artificielle et à la désinformation.

Bien comprendre les biais de l'IA pour mieux l'utiliser

Une mauvaise traduction : l’IA n’est pas intelligente !

Divina Frau-Meigs, sociologue des médias chez Savoir*Devenir, explique que le mot “intelligence” en anglais a été traduit en français par “intelligence”, alors qu’aux Etats-Unis il signifie “espionnage” et “surveillance”. En effet, l’intelligence artificielle se résume à un système de statistique très efficace : la traduction avec le mot “intelligence” a été mal choisie.

Attention aux biais

Il est fondamental de proposer une compréhension des algorithmes, des données et de l’IA générative pour pouvoir profiter pleinement de leurs opportunités. De plus, il est essentiel de travailler sur les biais et les limites de ces systèmes d’IA.

Un exemple très intéressant que donne Divina Frau-Meigs pour comprendre ces biais est le suivant. Si l’on demande “personne handicapée” au système “you.com”, le plus souvent il crée une image d’homme en fauteuil roulant, comme montre l’exemple ci-dessous (testé par Qualiview conseil selon l’exemple proposé par Divina Frau-Meigs). C’est un véritable biais car 80% des handicaps sont invisibles et moins de 5% des personnes en situation de handicap moteur utilisent un fauteuil roulant, donc cela véhicule un véritable “cliché”.

En conclusion, il convient de toujours se rappeler qu’il y a des humains derrière ces systèmes d’intelligence artificielle et que la responsabilité ultime appartient toujours à l’humain. Donc, pour une intelligence artificielle responsable, l’éducation a un rôle fondamental à jouer. En effet, le défi de la formation et de la sensibilisation est immense : plus nous comprendrons le fonctionnement de ces systèmes, leurs limites et leurs biais, mieux nous les utiliserons de manière opportune et efficace.

handicap

Si vous souhaitez organiser un atelier sur le thème de l’IA dans la formation professionnelle, veuillez nous contacter !