Définition de
l'intelligence artificielle (IA)

Yann Le Cun, chercheur français en intelligence artificielle et en vision artificielle chez Facebook est considéré comme l’un des inventeurs de l’apprentissage profond (« deep learning »). Il définit l’Intelligence Artificielle comme « un ensemble de techniques permettant à des machines d’accomplir des tâches et de résoudre des problèmes normalement réservés aux humains et à certains animaux ».

Petit Lexique de l’Intelligence Artificielle

Difficile de comprendre la portée de l’Intelligence Artificielle sans en comprendre les technicités. Pour vous aider à comprendre ce qui ce cache derrière le terme d’IA, un petit lexique des termes clefs !

L’Adaptive Learning, ou apprentissage adaptatif, est une approche pédagogique permettant d’ajuster les apprentissages aux besoins individuels des étudiants grâce à l’utilisation de technologies comme le Big Data. L’Adaptive Learning a pour objectif de proposer un enseignement en adéquation avec les besoins des élèves. L’enseignement est donc individualisé, il adapte l’environnement d’apprentissage aux élèves.

Ces adaptations concernent majoritairement trois éléments :

L’apparence : il est question d’adapter la forme de présentation des apprentissages en fonction des élèves ; cela change le contenu, le texte, les supports…

L’ordre : cet élément influe sur la manière d’ordonner et de connecter les apprentissages en fonction du rythme de progression de l’élève.

L’accompagnement vers l’objectif : offre la possibilité de mettre en place des actions visant à accompagner l’élève vers la réussite en adaptant par exemple le niveau de difficulté d’exercices d’applications en fonction de ses acquis.

Répondant aux besoins individuels de chaque élève à chaque étape de son apprentissage, l’Adaptive Learning est aussi un moyen pour les enseignants de trouver des solutions. Il considère les réelles capacités et les besoins de chaque élève et les libère du principe de programme d’enseignement et d’application unique pour tous les élèves.

Ces apprentissages personnalisés préviennent une perte de motivation et d’estime de soi. Ainsi,  l’ajustement du parcours d’apprentissage peut par exemple se matérialiser par un test initial servant de marqueur de progression et analysant les besoins de l’élève, en suggérant un suivi et des étapes sur-mesure. Grâce aux plateformes d’Adaptive Learning, il est également envisageable d’apporter des solutions orientées vers un ajustement des rythmes et des méthodes d’apprentissages. Ces plateformes reposent en partie sur le Big Data qui offre des données automatisées qui ajustent le rythme et le parcours d’apprentissage des élèves en identifiant notamment les éléments précis qui ont favorisé leur réussite.

Un algorithme est la description d’une suite d’étapes permettant d’obtenir un résultat à partir d’éléments fournis en entrée. Par exemple, une recette de cuisine est un algorithme permettant d’obtenir un plat à partir de ses ingrédients. 


Dans le monde de plus en plus numérique dans lequel nous vivons, les algorithmes mathématiques permettent de combiner les informations les plus diverses pour produire une grande variété de résultats : simuler l’évolution de la propagation de la grippe en hiver, recommander des livres à des clients sur la base des choix déjà effectués par d’autres clients, comparer des images numériques de visages ou d’empreintes digitales, piloter de façon autonome des automobiles ou des sondes spatiales, etc. 


Pour qu’un algorithme puisse être mis en œuvre par un ordinateur, il faut qu’il soit exprimé dans un langage informatique, sous la forme d’un logiciel (souvent aussi appelé « application »). Un logiciel combine en général de nombreux algorithmes : pour la saisie des données, le calcul du résultat, leur affichage, la communication avec d’autres logiciels, etc.


Certains algorithmes ont été conçus de sorte que leur comportement évolue dans le temps, en fonction des données qui leur ont été fournies. Ces algorithmes « auto-apprenants » relèvent du domaine de recherche des systèmes experts et de l’« intelligence artificielle ». Ils sont utilisés dans un nombre croissant de domaines, allant de la prédiction du trafic routier à l’analyse d’images médicales.

Le Big Data, ou mégadonnée, est né de l’explosion du nombre de données numériques. Il développe la capacité à stocker des informations sur une base de données numérique, les rendant ainsi exploitables. Le Big Data est considéré comme étant une partie importante de la troisième révolution industrielle, celle de l’informatique. Les données qui composent les Big Data concernent différents domaines en fonction de l’utilisation qu’en font ses utilisateurs, usagers ou fournisseurs de services. Ils permettent à tout le monde d’accéder en temps réel à des bases de données géantes. Sans le Big Data il serait impossible de résoudre ce souci de volume de données à traiter.

Selon Gartner, le Big Data regroupe des données présentant une grande variété, arrivant en volumes croissants, à grande vitesse.

C’est ce qu’on appelle les trois « V » :

Volume : Un nombre de données considérables à traiter

Vitesse : Une vitesse de création, de collecte et de partage de ces données importante

Variété : Un grand nombre de types de données différentes

Depuis cette classification de 2001, deux autres « V » sont apparus : la valeur et la véracité. La véracité concerne la fiabilité et la crédibilité des informations collectées tandis que la notion de valeur répond au profit attendu grâce à l’usage du Big Data.

Le Big Data est utilisé notamment dans les activités commerciales, mais pas que. On le retrouve également dans :

Le développement de produits (Netflix l’utilise afin d’anticiper la demande de ses clients),

L’expérience client (le Big Data utilise des données provenant des réseaux sociaux, des visites web afin de proposer des offres personnalisées et réduire la perte de clients),

Le Machine Learning (les Big Data sont les données exploitées par les algorithmes).

Des défis se posent toutefois aujourd’hui. Son très grand volume (on estime que la masse de ces données double tous les deux ans) pose alors la question du stockage de ces données. Or, pour être exploitables les données doivent être organisées afin d’être analysées de façon pertinente.

Logiciel spécialisé dans le dialogue en langage naturel avec un humain, qui est capable notamment de répondre à des questions ou de déclencher l’exécution de tâches. Un dialogueur peut être intégré à un terminal ou à un objet connecté.

Le tout premier agent de dialogue s’appelait Eliza et fut développé en 1966.

Le Deep Learning, de l’anglais  “apprentissage profond”, est un sous-domaine du Machine Learning. Son application la plus connue est celle de la reconnaissance visuelle. L’algorithme du Deep Learning détecte des visages depuis des images données, ainsi, il repère un individu dans une foule ou analyse son taux de satisfaction en sortant d’un magasin grâce à la détection de sourires. D’autres algorithmes reconnaissent sa voix, son intonation, etc…

Afin de mener à bien ces missions, le Deep Learning utilise la reproduction d’un réseau neuronal inspiré des systèmes cérébraux (succession de couches d’informations lui permettant d’identifier des caractéristiques). Il a donc besoin de beaucoup de données et de ressources pour s’entraîner. Le système apprend d’abord à déterminer s’il y a un visage sur une image grâce à une étude de milliers de photographies avant de définir de quelle personne il s’agit. A chaque étape les « mauvaises » et « bonnes » réponses sont triées et sont catégorisées dans son algorithme. Les« bonnes réponses » sont envoyées dans le réseau de neurones qui se charge de les analyser et seront utilisées ultérieurement comme références.

Aujourd’hui, le Deep Learning  « crée » de nouvelles œuvres, invente de nouveaux langages, pour faire communiquer des machines entre elles.

L’avenir du Deep Learning est étroitement lié aux découvertes dans le domaine du fonctionnement cérébral humain. Plus nous comprenons comment notre cerveau fonctionne, plus nous pouvons associer ces connaissances au développement du deep learning.  Ces recherches sont aujourd’hui en grande partie portées par les GAFAM (Google, Apple, Facebook, Amazon et Microsoft).

L’Ed Tech, de l’anglais « Educational Technology », désigne l’ensemble des nouvelles technologies capables de faciliter l’enseignement et l’apprentissage. L’Ed Tech peut également évoquer l’ensemble des entreprises de technologie innovantes en matière  de contenu éducatif. l’Ed Tech, englobe alors, un milieu professionnel.

L’utilisation de nouveaux outils afin de faciliter l’apprentissage des élèves n’est pas une nouveauté. Oui, le tableau à craie ou la photocopieuse peuvent être, d’une certaine façon, considérées comme de l’Ed Tech. L’Ed Tech comme nous l’entendons aujourd’hui a été définie en 2008 par l’Association pour la Communication et la Technologie Éducative (AECT) ainsi « l’étude et la pratique éthique pour faciliter l’apprentissage et améliorer les performances scolaires en créant, en utilisant et en administrant les processus et ressources technologiques appropriées ».

On associe à l’Ed Tech divers programmes : jeux vidéo, ou applications, tel Quizlet, une application de cartes memo-techniques, ou encore Duolingo, conçu pour apprivoiser une langue étrangère. L’Ed Tech réfère aussi à un dispositif en ligne encadrant l’enseignement dans son ensemble : la plateforme Pronote par exemple, un cahier de texte en ligne, le pack Google, ou encore les différentes plateformes de vidéo-conférence. S’ajoute à ce panorama,  l’ensemble des ressources éducatives(vidéos, dictionnaires et encyclopédies, exercices, et livres) accessibles via tablettes, ordinateurs, ou smartphone. Enfin, il existe différents dispositifs technologiques à portée éducative comme le tableau connecté, donnant aux professeurs la possibilité de projeter un document et de le modifier directement avec un stylo connecté.

L’intelligence artificielle est un procédé logique et automatisé reposant généralement sur un algorithme et en mesure de réaliser des tâches bien définies. Pour le Parlement européen, constitue une intelligence artificielle tout outil utilisé par une machine afin de               « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ».

 

Plus précisément, la Commission européenne considère que l’IA regroupe :


  • les approches d’apprentissage automatique
  • les approches fondées sur la logique et les connaissances
  • les approches statistiques, l’estimation bayésienne, et les méthodes de recherche et d’optimisation.

L’IA générative est une  IA particulière. Elle génère de façon indépendante des contenus. Comme le souligne BPIFrance « Elle diffère de l’IA classique, qui se concentre, quant à elle, sur des tâches spécifiques telles que la classification, la prédiction ou la résolution de problèmes. L’IA générative vise à produire de nouvelles données qui ressemblent à celles créées par des êtres humains, que ce soit sous forme de texte, d’images ou encore de musique par exemple.  »
Vous avez certainement de nombreux exemples d’IA générative en tête puisqu’elles sont désormais accessibles à tous.
L’IA générative utilise bien le machine learning pour se perfectionner. Elle fait aussi appel à des réseaux de neurones artificiels.
A l’Institut IA pour l’Ecole, nous agissons pour former les enseignants à l’usage de cette IA générative, nous sommes aussi soucieux de sensibiliser élèves et professeurs pour qu’ils gardent un œil critique sur « les prouesses » de cette IA riche en potentialités,
Lors d’une récente rencontre que nous avons organisée, nous avons d’ailleurs convié Nejma Belkdhim CEO de Nolej. Nolej est en effet une IA générative déjà expérimentée par les professeurs. Voilà ce que nous disait Nejma de Nolej, lors de notre événement en février 2025 : « Nolej, est une plateforme reposant sur l’IA générative qui transforme des ressources éducatives en activités éducatives». Il s’agit, explique-t-elle d’«amener la conception pédagogique dans les mains de l’enseignant». Cette solution «très facile de prise en main» est par exemple utilisée depuis 2023 par l’Académie de Nancy-Metz. «L’un des enseignants de cette Académie utilise les mots croisés et les mots mêlés pour enseigner la grammaire». Les clients de Nolej sont variés : Académies, enseignants, business schools ou encore centres de formation »

L’IA générative est donc un allié de l’éducation à condition d’en faire fructifier la capacité à générer des contenus conformes à l’éthique et aux attentes de la communauté éducative.

Pilier de l’humanité, l’intelligence collective est née d’interactions sociales, dans le but de maintenir la survie de l’espèce humaine. En d’autres termes – « l’union fait la force » ! Un exemple d’intelligence collective se retrouve dans fonctionnement d’un navire : le pilote, le capitaine/le commandant, l’armateur, le marin, le matelot, l’homme de barre travaillent tous en coopération. Ils mettent tous à profit leur savoir-faire au bénéfice de tous pour faire avancer le bateau.

L’intelligence artificielle (que nous définissons ici comme la simulation de l’intelligence humaine par des machines et des logiciels) et l’intelligence collective sont en perpétuelle interaction. L’intelligence collective est un paramètre crucial dans l’évolution de   l’intelligence artificielle. Elle dessine ainsi la réflexion globale autour de la place de l’IA dans la société. C’est grâce à notre réflexion commune que l’IA reste éthique et humaine. Par exemple, en 2016, trois scientifiques de l’université MIT ont mis au point la plate-forme « Moral Machine ». Disponible pour tous, la plateforme propose aux utilisateurs un ensemble de dilemmes moraux touchant aux voitures autonomes, qui utilisent l’intelligence artificielle : si un piéton venait à se retrouver subitement sur la route, faut-il que la voiture écrase le piéton et sauve le passager de la voiture, ou que la voiture tente à tout prix de s’écarter du piéton, quitte à rentrer dans un arbre et blesser le passager ? Si deux piétons – un homme et un chien, se retrouvent sur la route, et que la voiture ne peut freiner à temps, qui doit-elle sacrifier ? Et si les deux piétons sont un vieillard et un enfant ? Ou un homme et une femme ?

Ce sondage éthique fut l’étude la plus vaste jamais menée, avec plus de 2 millions de participants, du monde entier. Dans ce cas de figure, l’utilisation de l’intelligence collective est venue modeler la façon dont l’IA doit être déployée pour garder un degré d’éthique suffisant.

Grâce à l’Intelligence collective, à la somme de nos contributions, nous esquissons des réponses pour des questions clés qui touchent l’IA comme :

Quelles formes peut prendre « l’IA » ? Comment fonctionne cette technologie ? Comment l’IA va-t-elle transformer notre société, et transforme déjà notre quotidien ?

L’intelligence collective est un des carburants de notre association !

L’intelligence numérique est directement liée à la notion d’intelligence collective. L’intelligence collective définit la capacité d’un groupe de personnes à faire converger leurs connaissances et leur savoir-faire pour un objectif commun ou la résolution d’un problème.

Intéressons-nous désormais à l’intelligence numérique. De nombreux éléments du World Wide Web ont été constitués selon les principes de l’intelligence collective. C’est par exemple le cas de Wikipédia : les articles sont créés ou complétés par n’importe qui disposant d’un ordinateur et d’une connexion internet. En contrepartie, les autres utilisateurs peuvent venir modifier ou modérer les articles, afin d’apporter plus de précision, de sources, ou encore pour retirer les informations incorrectes. Ainsi, cette encyclopédie conçue, grâce à plus de 55 millions d’articles en mars 2021, témoigne de l’efficacité de l’intelligence collective appliquée au numérique.

L’intelligence numérique se différencie de l’intelligence artificielle : alors que l’intelligence artificielle consiste à simuler l’intelligence humaine, l’intelligence numérique consiste elle à synthétiser l’ensemble des connaissances humaines en ligne.

Ici donc, l’intelligence numérique est considérée comme une intelligence collective développée à l’aide du numérique.

Le Machine Learning, ou apprentissage automatique, est une technologie d’intelligence artificielle qui permet aux machines d’apprendre sans être explicitement programmées pour cela.

Afin de rendre possible ce procédé, les ordinateurs ont besoin de données à analyser et à utiliser, c’est pourquoi le Big Data (mégadonnées) est essentiel au Machine Learning. La technologie du Machine Learning se traduit par une exploitation importante du Big Data.  

En somme, le Machine Learning est une science qui réalise avec rapidité et précision des analyses prédictives à partir de larges données statistiques et grâce aux algorithmes.

Le Machine Learning est une branche de l’intelligence artificielle car contrairement à un ordinateur qui réalise des tâches en suivant des instructions définies et répétitives, le Machine Learning ne suit pas d’instructions mais apprend à partir de son expérience. Plus son algorithme rencontre de données, plus ses performances s’améliorent.

Le Machine Learning nourrit des outils de notre quotidien comme des moteurs de recommandations (Netflix, YouTube, Amazon, Spotify, etc.), des moteurs de recherche web et de fils d’actualité (Google, Twitter, Facebook, etc.) mais aussi les assistants vocaux (Siri, Alexa, etc.). Ces plateformes collectent des données sur leurs utilisateurs et alimentent les algorithmes du Machine Learning afin de mieux les comprendre et d’améliorer leurs performances. Ainsi, elles proposent de meilleures recommandations, de meilleurs résultats de recherche. Très présente et performante dans le domaine ludique, l’IA a surpassé l’humain grâce au Machine Learning dans différents jeux (échecs, shogi, go…), ou même, dans le domaine médical.

Modèle statistique de la distribution d’unité linguistiques (par exemple : lettres, phonèmes, mots) dans une langue naturelle. Un modèle de langage peut par exemple prédire le mot suivant dans une séquence de mots. On parle de modèles de langage de grande taille ou « Large Language Models » (LLM).

Consigne donnée par un utilisateur à un modèle génératif, généralement formulée en langage naturel, c’est-à-dire en langue parlée par un être humain, qui décrit la tâche à accomplir.

L’instruction générative peut prendre la forme d’un texte à compléter, d’une question, d’une consigne à respecter dans la production de la réponse, voire d’un ou de plusieurs exemples de résultats attendus.
On trouve aussi le terme « invite », qui est déconseillé dans ce sens.


Ex: Suggère 5 activités interactives pour enseigner [concept] à des élèves de [âge].

La Réalité Virtuelle est une technologie informatique qui simule le déplacement d’un utilisateur ou d’une utilisatrice dans un environnement généré artificiellement par des logiciels. Quel est l’objectif de la Réalité Virtuelle, parfois appelée « VR » (pour « Virtual Reality ») ? Vivre une expérience d’immersion dans un monde imaginaire ou réel. La Réalité Virtuelle nécessite un ou plusieurs dispositifs, tel un casque de réalité virtuelle, un casque audio, des manettes, ou encore différents accessoires tel un harnais, un tapis roulant, un stylo connecté…

Ces différents outils reproduisent artificiellement une expérience sensorielle, c’est- à-dire qu’ils sont donc capables de stimuler la vue, le toucher, l’ouïe ou encore l’odorat de l’utilisateur ou de l’utilisatrice. Ces dispositifs utilisent des technologies associées à l’Intelligence Artificielle pour capter les mouvements, et l’environnement de l’utilisateur : caméras, détecteurs de mouvement, détecteur de profondeur…

On différencie dans la Réalité Virtuelle deux types d’expériences : les Films 360°, et les expériences interactives. Durant une expérience interactive, l’utilisateur interagit avec l’environnement qui l’entoure, par exemple, en touchant certains éléments du décor à l’aide de ses manettes. En revanche, durant un film en 360°, la personne ne pourra pas intervenir sur les images qui l’entourent – c’est un petit peu comme visionner un film au cinéma, mais avec un angle de vue exceptionnel  !

Aujourd’hui, la Réalité Virtuelle est accessible au grand public. Les premiers casques sont vendus, sans grand succès, dès les années 1990 mais,  à partir de 2014 les nouvelles générations de casques font leur apparition sur le marché. Les entreprises Vive, Oculus, ou encore Playstation commercialisent leurs casques de Réalité Virtuelle depuis 2016. Certaines expériences sont également proposées sur téléphone portable. Il suffit d’insérer le smartphone dans un casque prévu à cet effet, faisant office  de stéréoscope.

La Réalité Virtuelle n’est pas à confondre avec la Réalité Augmentée.

La Réalité Augmentée est une technologie permettant, en temps réel, la superposition d’éléments (son, image en deux ou trois dimensions, vidéos…) sur la réalité. Cette superposition est rendue possible grâce à une ou plusieurs caméras, et aux calculs d’un système informatique. Également appelée « AR », la Réalité Augmentée est disponible sur ordinateur, sur tablette, ou sur smartphone, mais aussi avec des lunettes connectées. À  titre d’exemple, les    filtres    Instagram    ou Snapchat, l’option de «  floutage » disponible sur les appels vidéo, ou encore certains jeux, tel le très populaire « Pokémon Go », utilisent tous la Réalité Augmentée.
La Réalité Augmentée fonctionne à l’aide de différents outils :
Les capteurs (de son, de lumière, de vitesse, de mouvement, de distance, d’angle, de proximité…) qui indiquent au téléphone ou à l’ordinateur où placer le contenu digital.
L’unité de traitement graphique qui gère le rendu visuel de l’écran du téléphone.
Le processeur, le cerveau du téléphone/de l’ordinateur qui coordonne l’ensemble
Le logiciel qui, avec les principes de l’Intelligence Artificielle, analyse l’environnement filmé par la caméra, détecte le mouvement, et enfin place un objet virtuel par-dessus les surface repérées par la caméra. D’autres fonctions peuvent s’ajouter au logiciel. Par exemple, le programme détecte certains éléments météorologiques (pluie, forte lumière, ombre…) pour par la suite adapter la lumière présente sur l’objet virtuel.
L’application. Si le logiciel permet aux éléments de Réalité Augmentée de fonctionner, ces éléments(les filtres, les Pokémons, un effet visuel ..) se retrouvent donc sur les différentes applications. Chaque application possède sa propre base de données d’images virtuelles, et sa propre logique de fonctionnement. Par exemple, les filtres Snapchat ou Instagram sont déclenchés lorsqu’est identifié un visage, et l’application IKEA placera une image virtuelle de canapé lorsqu’un salon est détecté.
Cette technologie est présente dans de nombreux domaines : cuisine, tourisme, commerce mais aussi, science, éducation, ou encore politique. La Réalité Augmentée n’est pas à confondre avec la Réalité Virtuelle.

Quels sont les avantages et les risques de l’IA ?

L’IA est source de bien des fantasmes, bien des peurs, bien des suppositions.

 

Notre association est justement née pour en cerner les possibles et les limites dans le domaine de l’éducation !

 

Aujourd’hui, l’IA redessine la salle de classe qui n’avait pas changé depuis si longtemps. Des cours consacrés à l’IA générative seront même donnés au collège et au lycée.

 

L’IA est un vaste marché de prés de 90 milliards de dollars.

Les dérives algorithmiques, la dépendance technologique, l’hyperconnexion des systèmes, la non-protection des données, la désinformation, le formatage des esprits, la perte du libre-arbitre…Autant de risques que nous combattons.

 

Comprendre les enjeux, les appréhender, apprendre à maîtriser cette révolution comparable à celle de la fée électricité, telles sont nos visées.

 

Notre Institut est toujours prêt à venir aider professeurs, élèves, parents d’élèves, responsables d’établissement à vivre ce temps nouveau de l’éducation. Permettre à tous de comprendre cette nouvelle révolution technologique – et surtout de se l’approprier.