Parler de l'IA aux enfants : un guide simple et utile
J'ai récemment eu l'opportunité passionnante de participer à un programme appelé Skype pour les scientifiques, qui met en relation des scientifiques de différentes disciplines (biologistes, botanistes, ingénieurs, informaticiens, etc.) avec des classes d'enfants pour parler de notre travail et répondre à leurs questions. Je suis très familier avec les discussions sur l’IA et l’apprentissage automatique avec un public adulte, mais c’est la première fois que je m’assois vraiment pour réfléchir à la manière de parler de ce sujet aux enfants, et cela a été un défi intéressant. Aujourd'hui, je vais partager avec vous quelques idées que j'ai eues dans le cadre de ce processus, qui peuvent être utiles à ceux d'entre vous qui ont des enfants dans leur vie d'une manière ou d'une autre. Ces idées offrent des perspectives précieuses sur la manière de simplifier les concepts complexes de l’IA pour les enfants d’une manière attrayante et compréhensible.

Préparez-vous à expliquer un concept
Lorsque je me prépare à un discours, devant un public, je suis quelques règles de base. Je dois être très clair sur les informations que j’ai l’intention de présenter et sur les nouveaux concepts que le public doit connaître après la conférence, car cela détermine tout ce qui concerne les informations que je vais partager. Je souhaite également présenter mon matériel à un niveau de complexité adapté aux connaissances préexistantes du public, sans trop simplifier les choses, mais sans non plus les pousser au-delà de leur niveau de compréhension.
Dans ma vie quotidienne, je ne suis pas forcément pleinement conscient de ce que les enfants savent déjà (ou pensent savoir) sur l’intelligence artificielle (IA). Je souhaite adapter mes explications au niveau du public, mais dans ce cas, j'ai une vision quelque peu limitée de leurs connaissances de base. Dans certains cas, j’ai été surpris de constater que les enfants étaient très conscients de choses comme la concurrence en matière d’IA entre les entreprises et au-delà des frontières internationales. Un exercice utile pour décider de la manière de structurer le contenu consiste à proposer des métaphores qui utilisent des concepts ou des techniques que le public connaît déjà bien. En réfléchissant à cela, vous aurez également un accès aux antécédents du public. De plus, soyez prêt à changer et à ajuster votre style de présentation si vous décidez que vous n’êtes pas à la hauteur. J'aime demander aux enfants ce qu'ils pensent de l'IA et ce qu'ils savent au début, afin de pouvoir commencer à y voir plus clair avant d'aller trop loin.
Comprendre la technologie : les bases des modèles d'IA
Surtout avec les enfants, je concentre mes présentations sur plusieurs points principaux. Les lecteurs savent que je suis un fervent défenseur de l’enseignement aux non-experts sur la manière de former de grands modèles de langage (LLM) et d’autres modèles d’IA, et sur quelles données ils sont formés. Cela est essentiel pour former des attentes réalistes quant aux résultats de ces modèles. Je pense qu’il est facile pour n’importe qui, y compris les enfants, de se laisser entraîner par la nature incarnée du ton, de la voix et même de la « personnalité » des modèles LLM, et de perdre de vue les limites réalistes de ces outils.
Le défi est de maintenir les choses adaptées à l’âge, mais une fois que vous leur expliquez comment fonctionne la formation, comment les modèles LLM apprennent à partir d’exemples de matériel écrit ou comment un modèle de diffusion apprend à partir de paires texte-image, ils peuvent tirer leurs propres conclusions sur les résultats possibles. À mesure que les agents d’IA deviennent plus complexes et que les mécanismes sous-jacents deviennent plus difficiles à isoler, il est important que les utilisateurs comprennent les éléments constitutifs qui conduisent à cette capacité.
Pour ma part, je commence par expliquer la formation comme un concept général, en évitant autant que possible le jargon technique. Lorsque l’on parle aux enfants, un langage incarné peut aider à rendre les choses moins ambiguës. Par exemple, « Nous donnons aux ordinateurs beaucoup d’informations et leur demandons d’apprendre les modèles qu’elles contiennent. » Ensuite, je décrirai des exemples de motifs tels que ceux que l’on trouve dans le langage ou dans les pixels d’une image, car le mot « motifs » seul est trop général et trop large. Ensuite, « ces modèles que vous apprenez sont écrits à l'aide de mathématiques, et ces mathématiques constituent ce qui se trouve à l'intérieur d'un « modèle ». Désormais, lorsque nous donnons de nouvelles informations au modèle, il nous envoie une réponse basée sur les modèles qu’il a appris. À partir de là, je donne un autre exemple complet et j'explique un processus de formation simplifié (généralement un modèle de série chronologique car il est très facile à visualiser). Ensuite, j'entrerai plus en détail dans les différents types de modèles et j'expliquerai la différence entre les réseaux neuronaux et les modèles linguistiques, dans la mesure appropriée au public.
Éthique de l'IA et influences externes
J’aimerais également aborder les questions éthiques liées à l’intelligence artificielle. Je crois que les enfants du primaire, du collège et au-delà sont parfaitement capables de comprendre التأثيرات البيئية et l’impact social que les technologies d’IA, y compris les grands modèles de langage (LLM), peuvent avoir. Il me semble que de nombreux enfants d’aujourd’hui sont très avancés dans leur compréhension du changement climatique mondial et de la crise environnementale, donc parler de la quantité d’énergie, d’eau et de minéraux rares nécessaires au fonctionnement des LLM n’est pas déraisonnable. Il est simplement important de rendre vos explications compréhensibles et adaptées à l’âge. Comme je l’ai mentionné plus tôt, utilisez des exemples pertinents et liés aux expériences vécues par votre public. Nous devons nous concentrer sur Éthique de l'IA et Impact de l'intelligence artificielle Sur la société et l'environnement.
Voici un exemple de la transition entre l’expérience d’un enfant et l’impact environnemental de l’IA.
Vous n'avez pas tous des Chromebooks pour vos devoirs ? Avez-vous déjà remarqué que lorsque vous travaillez longtemps assis avec votre ordinateur portable sur vos genoux, son dos chauffe ? Peut-être parce que vous ouvrez beaucoup de fichiers en même temps ou regardez beaucoup de vidéos ? Ce réchauffement est identique à celui des gros ordinateurs appelés serveurs qui fonctionnent lorsque vous vous entraînez ou utilisez un modèle de langage étendu (LLM), comme lorsque vous consultez le site web chatGPT.
Les centres de données qui assurent le fonctionnement de ChatGPT sont remplis de serveurs fonctionnant simultanément, et ils chauffent tous énormément, ce qui nuit au matériel. C'est pourquoi ces centres utilisent parfois de l'eau froide et des produits chimiques, pompés dans des canalisations qui traversent directement tous les serveurs. Cela permet de refroidir les machines et de les maintenir en fonctionnement. Cependant, cela implique une grande quantité d'eau utilisée, mélangée aux produits chimiques, et chauffée lors de son passage dans ces systèmes. Cette eau peut donc ne pas être disponible pour d'autres usages, comme l'agriculture ou l'eau potable.
Parfois, ces centres de données utilisent de gros climatiseurs, dont le fonctionnement consomme beaucoup d'électricité, ce qui peut entraîner une pénurie d'électricité pour nos foyers ou nos entreprises. L'électricité est également parfois produite par la combustion de charbon dans des centrales électriques, ce qui rejette des gaz d'échappement dans l'air et augmente la pollution.
Cela intègre l’expérience de l’enfant dans la conversation et lui donne un moyen concret de se rapporter au concept. Vous pouvez avoir des discussions similaires sur l’éthique du droit d’auteur et le vol de contenu, en utilisant des artistes et des créateurs familiers aux enfants, sans avoir à vous plonger dans les détails du droit de la propriété intellectuelle. Les deepfakes, sexuels ou autres, sont certainement un sujet que de nombreux enfants connaissent également, et il est important que les enfants soient conscients des risques qu’ils représentent pour les individus et la société lorsqu’ils utilisent l’IA.
Cela peut être effrayant, en particulier pour les jeunes enfants, lorsqu’ils commencent à comprendre certaines des applications contraires à l’éthique de l’IA ou les défis mondiaux qu’elle crée, et réalisent à quel point certaines de ces choses peuvent être puissantes. Les enfants m’ont demandé : « Comment pouvons-nous résoudre le problème si quelqu’un apprend à l’IA à faire de mauvaises choses ? » Par exemple. J’aurais aimé avoir de meilleures réponses à cette question, car je devais essentiellement dire : « L’IA possède parfois les informations nécessaires pour faire de mauvaises choses, mais il y a aussi beaucoup de gens qui travaillent dur pour rendre l’IA plus sûre et l’empêcher de partager de mauvaises informations ou des instructions sur la façon de faire de mauvaises choses. »
Déconstruire le concept de « vérité »
Humaniser l’IA est un véritable problème pour les adultes comme pour les enfants : nous avons tendance à faire confiance à une voix amicale et confiante lorsqu’elle nous dit des choses. Une grande partie du problème est que la voix du grand modèle linguistique (LLM) qui nous dit les choses est souvent amicale, confiante et erronée. Le concept d’éducation aux médias est un sujet important dans l’éducation depuis des années maintenant, etL’étendre aux grands modèles de langage (LLM) est une évolution naturelle.. Tout comme les étudiants (et les adultes) doivent apprendre à être des consommateurs critiques des informations créées par d’autres personnes ou entreprises, nous devons être des consommateurs critiques et réfléchis du contenu généré par ordinateur. Cela inclut la compréhension des limites de ces technologies.
Je pense que cela va de pair avec la compréhension de la technologie. Lorsque j’explique que la tâche d’un grand modèle de langage (LLM) est d’apprendre et de copier le langage humain, au niveau le plus simple en déterminant le prochain mot possible dans une chaîne en fonction de ce qui le précède, cela a du sens lorsque je dis qu’un LLM ne peut pas comprendre l’idée de « vérité ». La vérité ne fait pas partie du processus de formation et, en même temps, la vérité est un concept vraiment difficile à saisir, même pour les gens. Un grand modèle linguistique (LLM) peut donner les faits corrects la plupart du temps, mais des angles morts et des erreurs potentielles apparaîtront de temps à autre, en raison de la probabilité. Par conséquent, les enfants qui l’utilisent doivent être pleinement conscients de la faillibilité de l’outil.
Cependant, cette leçon a une valeur qui va au-delà de la simple utilisation de l’IA, car ce que nous enseignons porte sur la gestion de l’incertitude, de l’ambiguïté et des erreurs. Comme il l'a souligné Berman et Ajawi (2023)« L’éducation dans un monde médiatisé par l’IA implique d’apprendre à travailler avec des situations ambiguës, partielles et vagues, qui reflètent les relations entrelacées entre les personnes et les technologies. » J’aime beaucoup ce cadre, car il renvoie à quelque chose auquel je pense beaucoup : les grands modèles de langage (LLM) sont créés par des humains et reflètent des interprétations de contenus générés par des humains. Lorsque les enfants apprennent comment les modèles sont formés, que les modèles sont faillibles et que leurs résultats proviennent d’apports générés par l’homme, ils reconnaissent la nature nébuleuse du fonctionnement actuel de la technologie dans notre société au sens large. (En fait, je recommande vivement l’article entier à quiconque envisage de savoir comment enseigner l’IA aux enfants eux-mêmes.)
Note complémentaire sur les photos et les vidéos
Comme je l’ai mentionné plus tôt, la prolifération de contenus vidéo et d’images « IA slop » soulève de nombreuses questions difficiles. Je crois qu’il est essentiel de fournir aux enfants des informations dans ce domaine, car il est facile d’absorber de la désinformation ou des mensonges purs et simples à travers un contenu visuel convaincant. Ce contenu est également à une étape du processus de création réel pour la plupart des enfants, car une grande partie de ce matériel est largement partagé sur les réseaux sociaux et il est peu probable qu'il soit correctement catégorisé. Il peut être utile de parler aux enfants des signes qui aident à repérer le contenu généré par l’IA, ainsi que des compétences générales en matière d’éducation aux médias critiques telles que « Si cela semble trop beau pour être vrai, c’est probablement faux » et « Vérifiez bien ce que vous entendez dans ce type de publication ». Il est essentiel d’apprendre aux enfants à vérifier les faits et les sources d’information pour améliorer leur capacité à distinguer le contenu réel du faux.
tricherie utilisant l'intelligence artificielle
Malgré tous les problèmes éthiques et les risques liés aux erreurs de LLM, ces outils d'IA sont incroyablement utiles et attrayants, il est donc compréhensible que certains étudiants puissent recourir à leur utilisation pour tricher sur leurs devoirs et à l'école. Je dirais que nous devons simplement leur parler, en leur expliquant que l'objectif est d'acquérir les compétences nécessaires pour terminer leurs devoirs, et que s'ils ne les apprennent pas, ils perdront les compétences dont ils auront besoin dans les classes supérieures et plus tard dans la vie... mais nous savons tous que les enfants sont rarement aussi logiques. Leur cerveau est encore en développement et ce genre de choses est parfois difficile à envisager, même pour les adultes. Comprendre l’impact de l’IA sur l’éducation nécessite une compréhension approfondie des capacités de ces outils et de leur impact potentiel sur le développement des compétences essentielles.
Il existe essentiellement deux approches possibles : trouver des moyens de rendre les devoirs plus difficiles ou impossibles à tricher, ou intégrer l’IA dans la salle de classe en partant du principe que les élèves en auront à leur disposition à l’avenir. Désormais, le travail supervisé en classe peut donner aux étudiants la possibilité d’acquérir certaines des compétences dont ils ont besoin sans intervention numérique. Cependant, comme je l’ai mentionné plus tôt, les connaissances sur l’utilisation des médias doivent désormais véritablement inclure de grands modèles linguistiques, et je crois que l’utilisation supervisée de grands modèles linguistiques par un enseignant compétent peut être d’une grande valeur pédagogique. De plus, il est véritablement impossible de « rendre les devoirs résistants à l’IA » lorsqu’ils sont effectués en dehors de la supervision directe d’un enseignant, et nous devons en être conscients. Je ne veux pas que cela paraisse facile, cependant – voir ci-dessous dans la section Lectures complémentaires Pour un certain nombre d’articles scientifiques sur les grands défis de l’enseignement de l’alphabétisation en IA en classe. Les enseignants sont confrontés à une tâche très difficile : non seulement essayer de suivre eux-mêmes le rythme de la technologie et d’adapter leurs méthodes d’enseignement à l’époque, mais aussi essayer de fournir à leurs élèves les informations dont ils ont besoin pour utiliser l’IA de manière responsable. Les enseignants devraient également s’attacher à enseigner aux étudiants comment évaluer de manière critique les informations générées par l’IA et développer leurs capacités de réflexion critique.
Apprendre de l'exemple de l'éducation sexuelle : leçons sur l'intelligence artificielle
En fin de compte, la question est de savoir ce que nous devrions exactement recommander aux enfants et ce qu’ils devraient éviter dans un monde avec l’IA, à l’intérieur comme à l’extérieur de la salle de classe. Je suis rarement partisan d’interdire ou de prohiber des idées, et je pense que l’exemple d’une éducation sexuelle complète, fondée sur la science et adaptée à l’âge est une bonne leçon. Si les enfants ne reçoivent pas d’informations précises sur leur corps et leur sexualité, ils n’auront pas les connaissances nécessaires pour prendre des décisions éclairées et responsables dans ce domaine. Les adultes ne seront pas là pour faire respecter les mandats lorsque les enfants prendront des décisions difficiles sur ce qu’ils doivent faire dans des circonstances difficiles. Nous devons donc nous assurer que les enfants disposent des informations nécessaires pour prendre eux-mêmes ces décisions de manière responsable. Cela comprend des conseils moraux mais aussi des informations factuelles. De même, nous devons veiller à ce que les étudiants acquièrent une compréhension globale du potentiel et des risques de l’IA, afin qu’ils puissent l’utiliser de manière efficace et responsable à l’ère numérique.
Modélisation de la responsabilité dans l'utilisation de l'intelligence artificielle
Une autre chose qu’il me semble important de mentionner est que les adultes devraient également faire preuve d’un comportement responsable lorsqu’ils ont affaire à l’IA. Si les enseignants, les parents et les autres adultes présents dans la vie des enfants ne sont pas conscients de l’IA, ils ne pourront pas apprendre aux enfants à être des consommateurs critiques et réfléchis de cette technologie.
L'article a soulevé New York Times Je suis quelque peu frustré par la façon dont les enseignants utilisent l'IA. L'article ne reflète pas une compréhension approfondie de l'IA, la confondant avec des statistiques de base (les enseignants qui analysent les données des élèves pour adapter leur enseignement à leur niveau ne relèvent ni de l'IA, ni d'une nouveauté ni d'un problème), mais il ouvre une réflexion sur la façon dont les adultes, dans la vie des enfants, utilisent les outils d'IA, et souligne la nécessité pour ces adultes de modéliser des utilisations transparentes et critiques de l'IA. (Il aborde également brièvement la question de l'industrie à but lucratif qui intègre l'IA dans les salles de classe, un problème qui mériterait d'être approfondi ; j'y reviendrai peut-être plus tard.)
Pour contrer l’une des affirmations de l’article, je ne me plaindrais pas de l’utilisation par les enseignants de grands modèles de langage (LLM) de procéder à un examen initial pour évaluer les documents écrits, à condition de surveiller et de valider les résultats. Si les critères d’évaluation tournent autour de la grammaire, de l’orthographe et de la mécanique d’écriture, un grand modèle de langage est susceptible d’être approprié en fonction de la façon dont il est formé. Je ne veux pas faire aveuglément confiance à un grand modèle de langage à ce sujet sans qu'un humain n'y jette au moins un coup d'œil rapide, mais le langage humain est en fait ce qu'il a été conçu pour comprendre. L’idée selon laquelle « l’élève a dû l’écrire, donc l’enseignant doit le noter » est ridicule, car le but de l’exercice est que l’élève apprenne. Les enseignants connaissent déjà les mécanismes de l’écriture, et ce projet ne vise pas à les forcer à apprendre quelque chose qui ne peut être réalisé que par une évaluation manuelle. Je pense que le New York Times le savait, et que le cadrage était principalement destiné à attirer les clics, mais il vaut la peine de le dire clairement.
Ce point revient à la section précédente sur la compréhension de la technologie. Si vous comprenez avec certitude à quoi ressemble le processus de formation, vous pouvez déterminer si ce processus produira ou non un outil capable de gérer une tâche. Mais l’automatisation des évaluations fait partie de l’éducation depuis au moins des décennies – quiconque a rempli une feuille de notes le sait.
Le développement de cette technologie oblige notre système éducatif à un certain degré d’adaptation, mais nous ne pouvons pas remettre ce génie dans sa bouteille maintenant. Il existe certainement des moyens par lesquels l’IA pourrait avoir un impact positif sur l’éducation (les exemples souvent cités sont la personnalisation et la libération du temps des enseignants qui peut ensuite être alloué aux services directs aux étudiants), mais comme pour la plupart des choses, je suis partisan d’une vision réaliste. Comme je pense que la plupart des enseignants le savent bien, l’éducation ne peut pas continuer comme elle l’était avant l’introduction des grands modèles linguistiques (LLMNotre vie.
CONCLUSION
Les enfants sont plus intelligents que nous le pensons parfois, et je pense qu’ils peuvent comprendre beaucoup de choses sur ce que signifie l’IA dans notre monde. Mon conseil est d’être transparent et honnête sur les réalités de cette technologie, y compris les avantages et les inconvénients qu’elle représente pour nous en tant qu’individus et pour notre société dans son ensemble. La façon dont nous utilisons l’IA façonnera les choix des enfants, qu’ils soient positifs ou négatifs, et c’est quelque chose à laquelle ils prêteront attention. Il est donc essentiel de réfléchir à nos actions ainsi qu’à ce que nous disons. Nous devons leur expliquer le potentiel et les défis de l’IA, en mettant l’accent sur l’utilisation éthique et responsable de cette technologie.
Les commentaires sont fermés.