Utiliser ChatGPT rend-il plus bête ? Une étude du MIT suggère que les personnes qui utilisent des outils d'IA dégradent leurs capacités.
Selon une étude récente menée par des chercheurs du Massachusetts Institute of Technology, l’utilisation de ChatGPT et d’autres outils d’IA peut entraîner une diminution de l’activité cérébrale et potentiellement une atrophie cérébrale à long terme.
Avec le grand boom de la technologie, Intelligence artificielle générativeLes chercheurs s'efforcent d'étudier les effets de ces outils sur les utilisateurs. Des études antérieures ont montré qu'une dépendance excessive à ces outils ChatGPT Des outils similaires peuvent conduire à : Comportements addictifs et dommages à la santé mentale, une atrophie de la pensée critique et des sentiments de solitude et d’isolement social.
Une nouvelle étude met en évidence les risques potentiels des outils de modèles de langage volumineux (LLM) comme ChatGPT. Des chercheurs du Media Lab du Massachusetts Institute of Technology ont découvert que L'utilisation de ChatGPT et d'outils similaires pour la rédaction d'articles a entraîné une diminution significative de l'activité cérébrale. L'étude, intitulée « Effet de ChatGPT sur le cerveau : accumulation de dette cognitive lors de l'utilisation d'un assistant IA pour la rédaction de dissertations »...que les personnes qui s'appuyaient sur des outils d'IA devenaient moins performantes dans la rédaction d'essais lorsqu'on leur demandait d'effectuer la même tâche sans l'aide de ChatGPT ou d'outils similaires.

L'étude a porté sur un petit échantillon de 54 personnes âgées de 18 à 39 ans. Les participants ont été divisés en trois groupes : un groupe « cerveau uniquement » (s'appuyant uniquement sur leurs capacités mentales), un groupe pouvant utiliser un moteur de recherche traditionnel et un groupe pouvant utiliser des outils de modèle de langage à grande échelle (LLM) comme ChatGPT.
Les résultats ont montré que les personnes ayant utilisé des modèles linguistiques étendus (MLE) pour réaliser la tâche ont subi une charge cognitive inférieure de 32 % à celle des personnes ayant utilisé des interfaces logicielles traditionnelles. Elles ont également fait état de moins de frustration durant le processus.
L'une des principales conclusions est que les personnes ayant utilisé des modèles linguistiques de grande taille (MLT) au cours de l'étude ont fourni moins d'effort mental pour acquérir des informations. Sans surprise, cela explique pourquoi certaines personnes sont tentées d'utiliser des outils d'IA pour accomplir des tâches.
En plus d’enregistrer une activité cérébrale plus élevée, les participants du groupe « cerveau seul » ont signalé une plus grande satisfaction quant aux considérations éthiques.
Il ne fait aucun doute que les grands modèles linguistiques (LLM) ont réduit l'effort nécessaire pour répondre aux questions des participants par rapport à un moteur de recherche traditionnel. Cependant, cette commodité a un coût cognitif, réduisant la propension des utilisateurs à évaluer de manière critique les résultats ou « opinions » des LLM (réponses probabilistes basées sur des jeux de données d'entraînement). Cela met en évidence une évolution inquiétante de l'effet « chambre d'écho » : plutôt que de disparaître, il s'est adapté pour façonner l'exposition des utilisateurs grâce à un contenu organisé par des algorithmes. Ce qui est considéré comme « le meilleur » est finalement influencé par les priorités des contributeurs des LLM.
À première vue, les conclusions de l'étude semblent claires. Il n'est pas surprenant que la rédaction d'une dissertation exige plus d'efforts mentaux que la simple utilisation d'un outil. Je suis sûr que payer quelqu'un d'autre pour rédiger la dissertation solliciterait également moins de ressources cérébrales.

Mais la science ne se limite pas à l'intuition. Elle exige des preuves et des tests d'hypothèses. Compte tenu du potentiel d'évolution des politiques gouvernementales et des normes éducatives en fonction des effets de ChatGPT et d'outils similaires, il est important de recueillir un maximum d'informations.
Les chercheurs du MIT l’ont confirmé dans la conclusion de l’étude.
« Nous pensons que des études longitudinales sont nécessaires pour comprendre l’impact à long terme des LLM sur le cerveau humain, avant que les LLM puissent être reconnus comme quelque chose de positif pour les humains. »
L’étude du MIT n’a pas encore été évaluée par des pairs et la taille de l’échantillon était petite. Bien qu’elle constitue une bonne étape vers la collecte d’informations pertinentes, elle nécessite un suivi.
Est-ce que ChatGPT rend les gens plus stupides ?
L’étude a également examiné l’impact de l’utilisation d’un grand modèle de langage (LLM) comme ChatGPT pour rédiger un essai sur la performance lorsque les participants ont ensuite été invités à effectuer la même tâche sans l’aide de l’IA.
Des chercheurs ont suggéré que cette tendance pourrait être attribuée à l'« épuisement cognitif » de l'IA. En d'autres termes, l'utilisation d'outils comme ChatGPT réduit la capacité de réflexion, ce qui peut entraîner un déclin à long terme des capacités cognitives. Ce phénomène, que les experts appellent « atrophie cérébrale numérique », suggère qu'une dépendance excessive à l'IA pourrait altérer nos capacités mentales fondamentales.
Dans une étude menée par des chercheurs de Microsoft en collaboration avec l'Université Carnegie Mellon, les effets de l'IA générative sur la pensée critique ont été examinés. Les chercheurs ont comparé les effets de l'utilisation de l'IA générative à l'atrophie musculaire, expliquant que la désaffection cognitive entraîne une faiblesse, tout comme la désaffection musculaire.
Si les données continuent d'étayer la théorie selon laquelle l'utilisation de modèles d'IA générative entraîne un déclin à long terme de l'activité cérébrale et de la pensée critique, les conséquences pourraient être considérables. Les établissements d'enseignement et les entreprises doivent réévaluer la manière dont ils intègrent ces outils afin de s'assurer qu'ils ne freinent pas le développement cognitif.
Une enquête menée par le journal a révélé que The Guardianet l'a publié Commission IALes outils d'IA générative comme ChatGPT sont souvent utilisés par les étudiants pour tricher. Cette utilisation contraire à l'éthique soulève de sérieuses inquiétudes quant à l'intégrité académique et à l'impact de l'IA sur les valeurs éducatives.
Si les étudiants et les travailleurs dépendent excessivement de ChatGPT et d'outils similaires, ils risquent de devenir moins capables d'effectuer certaines tâches de manière autonome. Cette dépendance pourrait entraîner une baisse des compétences de base telles que l'écriture, la pensée critique et la résolution de problèmes, menaçant ainsi leur compétitivité sur le marché du travail.
Les commentaires sont fermés.