« Dans ce 21ème siècle, le train du progrès est en train de quitter la station, et sera d’ailleurs probablement le dernier train à quitter la station Homo Sapiens. Ceux qui ratent le train n’auront jamais de deuxième chance »

Yuval Noah Harari, Homo Deus (2016)

Dans son dernier best-seller, l’auteur israélien Yuval Noah Harari évoquait sans concessions l’importance révolutionnaire de l’intelligence artificielle (IA). Une décennie plus tard, son discours n’en est que plus porteur : l’IA s’est désormais infiltrée dans quasiment toutes les strates de la société.

Devant ce fait, la plupart des États n’ont pas perdu de temps pour s’emparer de cette technologie disruptive, et mettre en place des cadres règlementaires. L’UE n’échappe pas à la règle.

L'Europe passe à l'action

En avril 2018, 25 pays européens signèrent une ‘Déclaration de coopération sur l’intelligence artificielle’, suivie en décembre de la même année par un plan coordonné présentant les objectifs et actions de l’UE en matière d’IA. Quelques mois plus tard, en février 2019, le Parlement européen adopta une nouvelle résolution portant sur une politique industrielle européenne de l’IA. La nécessité de mettre en place un cadre juridique rigoureux fut particulièrement mise en avant.

Enfin, en termes de régulation, le RGPD (Règlement Général sur la Protection des Données) fut implémenté le 25 mai 2018. Reflétant l’article 8 de la Charte des droits fondamentaux de l’Union Européenne, cette législation est considérée comme la plus onéreuse au monde. Elle accorde aux citoyens européens un certain contrôle sur leurs données personnelles : le droit au consentement pour l’obtention des données par un tiers-parti, ou encore la possibilité d’accéder à leurs données personnelles et de les supprimer.

Or, malgré ces efforts, beaucoup ont questionné le modèle européen vis-à-vis de l’IA. Kai-Fu Lee, ex-président de Google Chine et expert en IA, déclara notamment en décembre 2018 qu’il doutait très fortement que l’UE puisse obtenir « même une soi-disant médaille de bronze dans cette compétition ». En accord avec ces pensées, le chercheur français Nicolas Miailhe mettait en avant, la même année, que l’UE était sur le point de devenir un « Etat-vassal » en IA face aux leaders américains et chinois.

Ainsi, c’est dans ce cadre que la Commission Européenne publia, le 19 février 2020, un livre blanc présentant une stratégie revisitée vis-à-vis de l’IA. Celui-ci fut également accompagné d’un plan plus spécifique quant aux données, ainsi que d’un plan relatif à la sécurité et la responsabilité des produits comportant de l’IA.

En avril 2025, la Commission Européenne a dévoilé un nouveau plan d’action, baptisé « AI Continent Action Plan », pour renforcer le leadership de l’Europe en matière d’IA. Ce plan s’articule avec la stratégie « Apply AI », qui vise à stimuler l’utilisation de l’IA dans l’industrie et son adoption complète dans les secteurs public et privé stratégiques de l’UE.

L'AI Act européen : que retenir ?

Le Règlement européen sur l’intelligence artificielle, ou AI Act, est entré en vigueur le 1er août 2024, marquant une étape pionnière dans la régulation de l’IA à l’échelle mondiale. 

  

Le secteur de l’éducation est directement concerné par ce règlement, car certains systèmes d’IA utilisés dans ce domaine sont susceptibles d’être classés comme étant « à haut risque ». Cela inclut notamment les systèmes utilisés pour déterminer l’accès ou l’admission des élèves dans les établissements d’enseignement, ceux servant à évaluer les acquis d’apprentissage et les résultats des élèves, ainsi que les outils de surveillance et de détection de comportements interdits lors des examens.  

 

Pour ces systèmes à haut risque, l’AI Act impose des obligations strictes : ils devront subir des tests rigoureux avant leur mise sur le marché, garantir une supervision humaine adéquate, assurer la transparence de leur fonctionnement et mettre en place une gestion des risques robuste tout au long de leur cycle de vie. De plus, des obligations de transparence s’appliquent aux IA génératives et aux chatbots : les utilisateurs devront être clairement informés qu’ils interagissent avec une IA et que le contenu généré est artificiel.  

 

Le calendrier d’application prévoit que les règles spécifiques aux modèles d’IA à usage général (comme ChatGPT) entreront en vigueur en août 2025, tandis que celles concernant les systèmes à haut risque dans des domaines comme l’éducation s’appliqueront à partir d’août 2026.

  

L’AI Act, par son approche rigoureuse, vise à construire une « IA digne de confiance » , qui pourrait devenir une marque de fabrique européenne et un gage de sécurité pour les utilisateurs, y compris dans le sensible secteur de l’éducation. Cependant, ce cadre réglementaire exigeant, bien que protecteur, soulève des interrogations quant à son impact sur la compétitivité de l’écosystème EdTech européen.

Conclusion

La Fondation l’IA pour l’école continue de suivre le projet européen pour l’intelligence artificielle et le rôle qu’elle va jouer dans nos vies quotidiennes. Nous restons convaincus que le citoyen de demain doit être informé et familiarisé avec ces technologies en vue de développer un esprit critique nécessaire au monde d’aujourd’hui.