Définition de
l'intelligence artificielle (IA)

Yann Le Cun, chercheur français en intelligence artificielle et en vision artificielle chez Facebook est considéré comme l’un des inventeurs de l’apprentissage profond (‘deep learning’). Il définit l’Intelligence Artificielle comme « un ensemble de techniques permettant à des machines d’accomplir des tâches et de résoudre des problèmes normalement réservés aux humains et à certains animaux ».

Petit Lexique de l’Intelligence Artificielle

Difficile de comprendre la portée de l’Intelligence Artificielle sans en comprendre les technicité. Pour vous aider à comprendre ce qui ce cache derrière le terme d’IA, un petit lexique des termes clefs !

Le Machine Learning, ou apprentissage automatique, est une technologie d’intelligence artificielle qui permet aux machines d’apprendre sans être explicitement programmées pour cela.

Afin de rendre possible ce procédé, les ordinateurs ont besoin de données à analyser et à utiliser, c’est pourquoi le Big Data (mégadonnées) est essentiel au Machine Learning. La technologie du Machine Learning permet une exploitation importante du Big Data ; ils sont interdépendants.

En somme, le Machine Learning est une science qui permet de réaliser avec rapidité et précision desanalyses prédictives à partir de larges données statistiques et d’algorithmes.

Le Machine Learning peut être défini comme une branche de l’intelligence artificielle car contrairement à un ordinateur qui réalise des tâches en suivant des instructions définies et répétitives, le Machine Learningne suit pas d’instructions mais apprend à partir de son expérience. Ses performances s’améliorent alors au plus son algorithme rencontre de données.

Le Machine Learning permet d’alimenter des outils de notre quotidien comme des moteurs de recommandations (Netflix, YouTube, Amazon, Spotify, etc.), des moteurs de recherche web et de fils d’actualité (Google, Twitter, Facebook, etc.) et alimente également les assistants vocaux (Siri, Alexa, etc.). Ces plateformes collectent des données sur leurs utilisateurs et alimentent les algorithmes du Machine Learning afin de mieux les comprendre et d’améliorer leurs performances. Ainsi, ils proposent de meilleures recommandations, de meilleurs résultats de recherche. Très présent et performant dans le domaine des jeux, l’IA a surpassé l’humain grâce au Machine Learning dans différents jeux (échecs, shogi, go…), ou même, dans le domaine médical.

Le Deep Learning, de l’anglais  “apprentissage profond”, est un sous-domaine du Machine Learning. Son application la plus connue est celle de la reconnaissance visuelle. L’algorithme du Deep Learning est capable de détecter des visages depuis des images données, ainsi, il est en mesure de repérer un individu dans une foule ou d’analyser son taux de satisfaction en sortant d’un magasin grâce à la détection de sourires. D’autres algorithmes peuvent reconnaître sa voix, son intonation, etc…

Afin de mener à bien ces missions, le Deep Learning utilise la reproduction d’un réseau neuronal qui est inspiré des systèmes cérébraux (succession de couches d’informations lui permettant d’identifier des caractéristiques), il a donc besoin de beaucoup de données et de ressources pour s’entraîner. Le système apprend d’abord à déterminer s’il y a un visage sur une image grâce à une étude de milliers de photographies avant de définir de quelle personne il s’agit. A chaque étape les « mauvaises » et « bonnes » réponses sont triées et sont catégorisées dans son algorithme. Les« bonnes réponses » sont envoyées dans le réseau de neurones qui se charge de les analyser et seront utilisées ultérieurement comme références.

Aujourd’hui, le Deep Learning est en mesure de « créer » de nouvelles œuvres, ainsi que d’inventer de nouveaux langages, servant parfois à faire communiquer des machines entre elles.

L’avenir du Deep Learning est étroitement lié aux découvertes dans le domaine du fonctionnement cérébral humain. En comprenant comment l’algorithme de notre cerveau fonctionne, nous pourrons apporter son potentiel et ses clés de compréhension à la technologie du Deep Learning. Ces évolutions sont aujourd’hui en grande partie portées par les GAFAM (Google, Apple, Facebook, Amazon et Microsoft).

L’Adaptive Learning, ou apprentissage adaptatif, est une approche pédagogique permettant d’ajuster les apprentissages aux besoins individuels des étudiants grâce à l’utilisation de technologies comme le Big Data. L’Adaptive Learning a pour objectif de proposer une éducation adaptée aux besoins des élèves et plus individualisée, en adaptant l’environnement d’apprentissage aux élèves.

Ces adaptations concernent majoritairement trois éléments :

  • L’apparence : il est question d’adapter la forme de présentation des apprentissages en fonction des élèves ; sont impacté le contenu, le texte, les supports…
  • L’ordre : cet élément influe sur la manière d’ordonner et de connecter les apprentissages en fonction du rythme de progression de l’élève.
  • L’accompagnement vers l’objectif : offre la possibilité de mettre en place des actions visant à accompagner l’élève vers la réussite en adaptant par exemple le niveau de difficulté d’exercices d’applications en fonction de ses acquis.

Répondant aux besoins individuels de chaque élève à chaque étape de son apprentissage, l’Adaptive Learning est aussi un moyen pour les enseignants de proposer des solutions alternatives grâce à cette technologie. Elle permet de prendre en compte les réelles capacités et les besoins de chaque élève et d’ainsi les libérer du principe de programme d’enseignement et d’application unique à tous les élèves.

Ces apprentissages personnalisés permettent aux élèves d’éviter une perte de motivation et d’estime de soi. Une des solutions apportées est celle de l’ajustement du parcours d’apprentissage, il peut par exemple se matérialiser par un test initial servant de marqueur de progression et analysant les besoins de l’élève, en proposant un suivi et des étapes adaptées. Grâce aux plateformes d’Adaptive Learning, il est également envisageable d’apporter des solutions orientées vers un ajustement des rythmes et des méthodes d’apprentissages. Elles reposent en partie sur le Big Data qui offre des données automatisées permettant d’ajuster le rythme et le parcours d’apprentissage des élèves en identifiant notamment les éléments précis qui ont favorisé leur réussite.

Le Big Data, ou mégadonnée, est né de l’explosion du nombre de données numériques. Il permet de stocker des informations sur une base de données numérique, les rendant ainsi exploitables. Le Big Data est considéré comme étant une partie importante de la troisième révolution industrielle, celle de l’informatique. Les données qui composent les Big Data concernent différents domaines en fonction de l’utilisation qu’en font ses utilisateurs, usagers ou fournisseurs de services. Ils permettent à tout le monde d’accéder en temps réel à des bases de données géantes. Sans le Big Data il serait impossible de résoudre ce souci de volume de données à traiter.

Selon Gartner, il est possible de définir le Big Data ainsi ; il regroupe des données présentant une grande variété, arrivant en volumes croissants, à grande vitesse. C’est ce qu’on appelle les trois « V » :

  • Volume : Un nombre de données considérables à traiter
  • Vitesse : Une vitesse de création, de collecte et de partage de ces données importante
  • Variété : Un grand nombre de types de données différentes

Depuis cette classification de 2001, deux autres « V » sont apparus : la valeur et la véracité. La véracité concerne la fiabilité et la crédibilité des informations collectées tandis que la notion de valeur répond au profit attendu grâce à l’usage du Big Data.

Le Big Data est utilisé notamment dans les activités commerciales, mais pas que. On le retrouve également dans :

  • Le développement de produits (Netflix l’utilise afin d’anticiper la demande de ses clients),
  • L’expérience client (le Big Data utilise des données provenant des réseaux sociaux, des visites web afinde proposer des offres personnalisées et réduire la perte de clients),
  • Le Machine Learning (les Big Data sont les données exploitées par les algorithmes)

Des défis se posent toutefois aujourd’hui. Son très grand volume (on estime que la masse de ces données double tous les deux ans) pose alors la question du stockage de ces données. Or, pour être exploitables les données doivent être organisées afin de permettre leur analyse de façon pertinente.

La Réalité Virtuelle est une technologie informatique qui simule la transportation d’un utilisateur ou d’une utilisatrice dans un environnement généré artificiellement par des logiciels. L’objectif de la Réalité Virtuelle, parfois appelée « VR » (pour « Virtual Reality »), est de permettre à une ou plusieurs personnes de vivre une expérience d’immersion dans un monde imaginaire ou réel. La Réalité Virtuelle nécessite un ou plusieurs dispositifs, tel un casque de réalité virtuelle, un casque audio, des manettes, ou encore différentsaccessoires tel un harnais, un tapis roulant, un stylo connecté…

Ces différents outils servent à reproduire artificiellement une expérience sensorielle, c’est- à-dire qu’ils sont donc capables de stimuler la vue, le toucher, l’ouïe ou encore l’odorat de l’utilisateur ou de l’utilisatrice. Cesdispositifs utilisent des technologies associées à l’Intelligence Artificielle pour capter les mouvements, et l’environnement de l’utilisateur : caméras, détecteurs de mouvement, détecteur de profondeur…

On peut différencier dans la Réalité Virtuelle deux types d’expériences : les Films 360°, et les expériences interactives. Durant une expérience interactive, l’utilisateur peut interagir avec l’environnement qui l’entoure, par exemple, en touchant certains éléments du décor à l’aide de ses manettes. En revanche, durant un film en 360°, la personne ne pourra pas intervenir avec les images qui l’entourent – c’est un petit peu comme visionner un film au cinéma, mais avec une vue exclusive !

Aujourd’hui, la Réalité Virtuelle est accessible au grand public. Si les premiers casques sont vendus, sans grand succès, dès les années 1990, c’est à partir de 2014 que les nouvelles générations de casques font leur apparition sur le marché. Les entreprises Vive, Oculus, ou encore Playstation commercialisent leurscasques de Réalité Virtuelle depuis 2016. Certaines expériences sont également proposées sur téléphone portable – il suffit d’insérer le smartphone dans un casque prévu à cet effet, faisant office  de stéréoscope.

La Réalité Virtuelle n’est pas à confondre avec la Réalité Augmentée.

La Réalité Augmentée est une technologie permettant, en temps réel, la superposition d’éléments (son,image en deux ou trois dimensions, vidéos…) sur la réalité. Cette superposition est rendue possible grâce à une ou plusieurs caméras, et aux calculs d’un système informatique. Également appelée « AR », la Réalité Augmentée peut être utilisée sur ordinateur, sur tablette, ou sur smartphone, mais aussi avec des lunettesconnectées. À  titre d’exemple, les    filtres    Instagram    ou Snapchat, l’option de «  floutage » disponible sur les appels vidéo, ou encore certains jeux, tel le très populaire « Pokémon Go », disponible sur téléphone, utilisent tous la Réalité Augmentée.

La Réalité Augmentée fonctionne à l’aide de différents outils :

  1. Les capteurs (de son, de lumière, de vitesse, de mouvement, de distance, d’angle, de proximité…) qui indiquent au téléphone ou à l’ordinateur où placer le contenu digital.
  2. L’unité de traitement graphique qui gère le rendu visuel de l’écran du téléphone.
  3. Le processeur, le cerveau du téléphone/de l’ordinateur qui coordonne les autres
  4. Le logiciel qui, utilisant les principes de l’Intelligence Artificielle, est capable d’analyser l’environnementprésenté par la caméra, de détecter tout type de mouvement, et enfin de placer un objet virtuel par-dessus les surfaces détectées par la caméra et les D’autre fonctions peuvent s’ajouter aulogiciel. Par exemple, le programme peut détecter certains éléments météorologiques (pluie, fortelumière, ombre…) pour par la suite adapter la lumière présente sur l’objet virtuel.
  5. L’application. Si le logiciel permet aux éléments de Réalité Augmentée de fonctionner, ces éléments(les filtres, les Pokémons, l’effet de ..) se trouvent sur les différentes applications. Chaque application possède sa propre base de données d’images virtuelles, et sa propre logique defonctionnement. Par exemple, les filtres Snapchat ou Instagram sont déclenchés lorsqu’est détecté unvisage, et l’application IKEA placera une image virtuelle de canapé lorsqu’un salon est détecté.

La Réalité Augmentée s’est installée dans notre quotidien suite à la démocratisation des smartphones.C’est pourquoi cette technologie est utilisée dans de nombreux domaines : cuisine, tourisme, commerce et commerce en ligne, industrie, loisirs, publicité, musique, édition, presse écrite, science, éducation, ou encore politique.

La Réalité Augmentée n’est pas à confondre avec la Réalité Virtuelle.

L’Ed Tech, de l’anglais « Educational Technology », désigne l’ensemble des nouvelles technologiescapables de faciliter l’enseignement et l’apprentissage. L’Ed Tech peut également désigner l’ensemble desentreprises de technologie cherchant à innover en termes de contenu éducatif – l’Ed Tech désigne, dans ce cas de figure, un milieu professionnel.

L’utilisation de nouveaux outils afin de permettre aux élèves d’apprendre mieux, et plus rapidement, n’estpas une nouveauté – l’invention du tableau à craie, ou de la photocopieuse peuvent être, à un certain égard, considérées comme de l’Ed Tech. L’Ed Tech comme nous l’entendons aujourd’hui a été définie en 2008 par l’Association pour la Communication et la Technologie Éducative (AECT) comme « l’étude et la pratiqueéthique de faciliter l’apprentissage et d’améliorer les performances scolaires en créant, en utilisant et en administrant les processus et ressources technologiques appropriées ».

On associe à l’Ed Tech divers programmes, jeux vidéo, ou applications pour faciliter l’apprentissage, tel Quizlet, uneapplication de cartes memo-techniques, ou encore Duolingo, conçu pour permettre l’apprentissage d’une langueétrangère. L’Ed Tech peut également désigner un dispositif en ligne permettant d’encadrer l’enseignement dans sonensemble : la plateforme Pronote par exemple, un cahier de texte en ligne, le pack Google, ou encore lesdifférentes plateformes de vidéo-conférence. Nous pouvons aussi citer l’ensemble des ressources éducatives(vidéos, dictionnaires et encyclopédies, exercices, et livres) accessibles via tablettes, ordinateurs, ou smartphone.Enfin, nous pouvons évoquer les différents dispositifs technologiques à portée éducative. Entre autres : letableau connecté, permettant aux professeurs de projeter un document et de le modifier directement avec un stylo connecté.

L’intelligence numérique est directement liée à la notion d’’intelligence collective. L’intelligence collective désigne la capacité d’un groupe de personnes à faire converger leurs connaissances et leur savoir-faire pour un objectif commun ou la résolution d’un problème.

Intéressons-nous désormais à l’intelligence numérique. De nombreux éléments du World Wide Web ont étéconstitués selon les principes de l’intelligence collective. C’est par exemple le cas de Wikipédia : les articlespeuvent être crées ou complétés par n’importe qui disposant d’un ordinateur et d’une connexion internet.En contrepartie, les autres utilisateurs peuvent venir modifier ou modérer les articles, afin d’apporter plus de précision, de sources, ou encore de retirer les informations incorrectes. Ainsi, la plus grosse encyclopédiejamais conçue, avec plus de 55 millions d’articles en mars 2021, est une preuve de taille de l’intelligence collective appliquée au numérique.

L’intelligence numérique se différencie de l’intelligence artificielle : alors que l’intelligence artificielle consiste àsimuler l’intelligence humaine, l’intelligence numérique consiste elle à synthétiser l’ensemble des connaissances humaines en ligne.

Fondement de la société, l’intelligence collective est née d’interactions sociales, dans le but de maintenir lasurvie de l’espèce humaine. En d’autres termes – « l’union fait la force » ! Un exemple d’intelligencecollective pourrait être l’équipage d’un navire : le pilote, le capitaine/le commandant, l’armateur, le marin, le matelot, l’homme de barre travaillent en collaboration, mettant tous à profit leur savoir-faire pour faire avancer le bateau.

L’intelligence artificielle (que nous pourrons définir ici comme la simulation de l’intelligence humaine pardes machines et des logiciels) et l’intelligence collective sont en perpétuelle interaction. D’un côté,l’intelligence collective est un paramètre crucial dans l’évolution de   l’intelligence artificielle, et de la réflexion globale autour de la place de l’IA dans la société. C’est grâce à notre réflexion commune que l’IApeut rester éthique et humaine. Par exemple, en 2016, trois scientifiques de l’université MIT ont mis au point la plate-forme « Moral Machine ». Disponible à tous, la plateforme propose aux utilisateurs unensemble de dilemmes moraux touchant aux voitures autonomes, qui utilisent l’intelligence artificielle. Siun piéton venait à se retrouver subitement sur la route, faut-il que la voiture écrase le piéton et sauve lepassager de la voiture, ou que la voiture tente à tout prix de s’écarter du piéton, quitte à rentrer dans un arbre et blesser le passager ? Si deux piétons – un homme et un chien, se retrouvent sur la route, et quela voiture ne peut freiner à temps, qui doit-elle sacrifier ? Et si les deux piétons sont un vieillard et un enfant ? Ou un homme et une femme ?

Ce sondage éthique fut l’étude la plus vaste jamais menée, avec plus de 2 millions de participants, à traversle monde. Dans ce cas de figure, l’utilisation de l’intelligence collective est venue impacter l’avenir de l’IA, enformant les futures normes de son utilisation.

Depuis déjà plusieurs années, le terme d’intelligence artificielle suscite curiosités, fantasmes, et polémiques. Maisqu’est-ce que l’intelligence artificielle ? Quelles formes peut prendre “l’IA” ? Comment fonctionne cette technologie ? Comment l’IA va-t-elle transformer notre société, et transforme déjà notre quotidien ?

Quels sont les avantages et les risques de l’IA ?

Alors qu’en 2015 le marché de l’intelligence artificielle pesait 200 millions de dollars, on estime qu’en 2025, il s’élèvera à près de 90 milliards de dollars. Ses applications sont multiples : médecine, transports, finance… et même dans la musique ! C’est en effet le projet de Daniele Ghisi, mathématicien et compositeur : créer une machine qui fabrique de la musique. On entre en mémoire un corpus de sons existants, et le logiciel restitue ensuite de nouveaux sons – alors qu’il ne sait pas ce qu’est une note ni un langage musical !

Similairement à l’impact qu’avait pu avoir l’électricité, l’intelligence artificielle a donc vocation à se diffuser dans toutes les strates de la société. Or cela ne va pas sans risques. Biais algorithmique, risques pour l’emploi, risques systémiques liés à l’hyperconnexion des systèmes, armes létales autonomes, protection des données personnelles… Autant d’enjeux qui nécessitent cruellement d’une réflexion collective.

 

Là est justement le rôle de la Fondation l’IA pour l’Ecole : offrir les clés aux prochaines générations pour susciter cette réflexion collective. Permettre à tous de comprendre cette nouvelle révolution technologique – et surtout de se l’approprier.