L’intelligence artificielle générative et le nouveau visage de la fracture pédagogique
🤖 Modeles & LLM

L’intelligence artificielle générative et le nouveau visage de la fracture pédagogique

Le Big Data
Sylvia R.·5 min·1 vues
En bref
1L'intelligence artificielle générative transforme l'éducation supérieure en modifiant les méthodes d'apprentissage et d'enseignement.
270% des enseignants estiment que l'IA peut améliorer l'engagement des étudiants.
3Cette évolution soulève des questions sur l'équité d'accès aux technologies éducatives, exacerbant ainsi la fracture pédagogique existante.
💡Pourquoi c'est importantL'intégration de l'IA dans l'éducation pourrait redéfinir les compétences requises sur le marché du travail futur.
📄
Article traduit en français

L’intelligence artificielle générative et le nouveau visage de la fracture pédagogique

L’intelligence artificielle générative a bouleversé de nombreux domaines, et l’éducation supérieure n’est pas une exception. Dans cette interview, Meriem El Bouhali, enseignante-chercheuse à l’ESLSCA, nous parle de ses recherches sur le sujet et comment elle est devenue un nouveau facteur d’inégalité entre étudiants.

Enseignante-chercheuse à l’ESLSCA Paris Business School, Meriem El Bouhali mène des travaux de recherche sur les usages de ces outils dans l’enseignement supérieur, s’appuyant sur une enquête qualitative menée auprès d’étudiants de Bachelor et de MBA. Ces recherches s’inscrivent dans la continuité de ses travaux qui portent sur l’adoption des nouvelles technologies (Sites Web, Médias sociaux, Blockchain et Intelligence artificielle générative). Elle décrypte ses premiers résultats sur une question essentielle : l’IA bénéficie-t-elle réellement à tous les profils étudiants ou participe-t-elle, au contraire, à l’accentuation des écarts ?

Trois comportements types redéfinissent la réussite académique

L’étude met en lumière deux profils principaux face à l’outil, complétés par une troisième catégorie d’utilisateurs conscients.

  • D’une part, les profils les plus solides renforcent leur agilité intellectuelle au contact de l’IA générative en utilisant la machine pour nourrir leur réflexion plutôt que pour s’y substituer. Cette agilité se développe par la vérification systématique des résultats et la remise en question du contenu généré.

  • À l’inverse, chez les étudiants plus faibles, une tendance à la surconfiance ou overreliance transforme l’IA en une solution illusoire. Cette confiance excessive engendre une atrophie de l’esprit critique, rendant l’étudiant incapable de déceler les erreurs de l’algorithme.

  • Un troisième profil émerge également, composé d’étudiants compétents qui choisissent délibérément de ne pas déléguer certaines tâches à l’IA. Ce refus n’est pas une simple peur du changement, mais une stratégie volontaire pour préserver leur autonomie intellectuelle et éviter toute dépendance technologique.

Si ces étudiants assurent la qualité de leur travail, ils risquent toutefois d’être perçus comme moins efficaces :

“Là où ces étudiants par contre pourraient être désavantagés, c’est surtout pour tout ce qui est tâche répétitive et chronophage dans un contexte professionnel. C’est-à-dire qu’on va les percevoir comme étant moins efficaces. Ils mettront peut-être plus de temps à faire ce genre de choses, il y a une technologie qui peut le faire en quelques minutes.”

Des enjeux professionnels majeurs face à l’automatisation

Les risques de ces écarts pédagogiques se prolongent bien au-delà du monde académique. Un collaborateur incapable de détecter une erreur de l’IA peut mettre en péril la pérennité d’une entreprise, par exemple en générant des états financiers non conformes.

Une surestimation des chiffres pourrait entraîner un risque réputationnel majeur, tandis qu’une sous-estimation limiterait l’accès au financement. Face à cette menace, les recruteurs renforcent leurs contrôles pour identifier les candidats incapables de réaliser une analyse que l’intelligence artificielle pourrait fausser.

Cette mutation s’inscrit dans un cadre réglementaire défini par l’IA Act européen, dont l’Article 4 impose désormais aux entreprises de garantir la littératie IA de leurs collaborateurs. En conséquence, le marché ne cherche plus simplement des diplômés sachant utiliser ChatGPT, mais des experts capables de gérer ce que l’IA ne sait pas faire.

L’employé humain doit désormais se concentrer sur l’analyse :

“Au lieu de passer beaucoup de temps à calculer des ratios, on va se concentrer sur l’analyse de la situation financière de l’entreprise pour ensuite prendre les bonnes décisions ou la meilleure décision possible. L’initiative et les prises de décision éthiques, laissant à la machine les tâches répétitives.”

Une transformation nécessaire du modèle éducatif institutionnel

Face à ces enjeux, l’interdiction de l’IA est considérée comme une impasse pédagogique puisque les étudiants l’utilisent déjà. L’ESLSCA a donc franchi une étape décisive en créant un Comité IA dédié en 2024 pour accompagner cet usage plutôt que de le proscrire.

Les enseignants ont un rôle essentiel dans le renforcement de l’esprit critique. Ils doivent accepter d’adopter ce nouvel outil malgré les résistances au changement. Cette mutation interroge jusqu’à l’utilité même de certains exercices traditionnels comme le mémoire de recherche.

L’intelligence artificielle doit désormais être distillée dans l’ensemble du cursus à travers des modules spécifiques sur l’éthique et la littératie numérique. Les évaluations doivent également évoluer pour tester, au-delà des théories mémorisées, la capacité des étudiants à résoudre des problèmes complexes en utilisant l’IA intelligemment.

Vers une éthique de la littératie numérique pour tous

L’un des défis majeurs reste la lutte contre la fracture numérique qui crée une inégalité de fait entre les étudiants. L’accès aux versions les plus performantes de l’IA, souvent payantes, constitue une source d’exclusion académique.

Pour égaliser les chances, Meriem El Bouhali suggère la mise à disposition d’outils premium sur des postes fixes en bibliothèque. L’école a également mis en place une charte d’intégrité académique pour sensibiliser les étudiants aux enjeux éthiques et encadrer les pratiques.

Enfin, le capital technologique hétérogène des étudiants à leur arrivée nécessite une remise à niveau proactive. Cette fracture numérique, notamment visible entre le Nord et le Sud, est souvent le résultat d’un manque de stratégies étatiques claires en matière d’intégration de l’IA.

En s’emparant de ces problématiques, les institutions d’enseignement supérieur cherchent à transformer l’IA d’un facteur d’inégalité en un levier de compétence pour tous les profils. Cet écart avec les pays qui n’ont pas de stratégie claire et proactive en matière d’intégration de l’IA, “c’est un enjeu qui est très important à prendre en considération pour ensuite accompagner ces étudiants qui ont ce décalage.”

Lire l'article original sur Le Big Data

📧

Cet article vous a plu ?

Recevez les 7 meilleures actus IA chaque soir à 19h — résumées en 5 min.

Chaque soir à 19h

Gratuit · Pas de spam · Désabonnement en 1 clic

Commentaires