Comment repérer le battage médiatique autour de l’IA et éviter le « canular de l’IA », selon deux experts.

Dans leur nouveau livre, The AI ​​Con, les critiques de l’IA Emily Binder et Alex Hanna démystifient l’IA générative.

« L’intelligence artificielle, franchement, est une arnaque : un produit qu’on vous vend pour remplir les poches de quelqu’un. »

C’est là l’essence de l’argumentation présentée par la linguistique. Emily Bender et sociologue Alex Hanna Dans leur nouveau livre L'AI Con. C'est un guide utile pour tous ceux dont la vie a croisé des technologies vendues comme de l'IA et pour tous ceux qui ont remis en question leur véritable utilité, ce qui est le cas de la plupart d'entre nous. Bender est professeur à l'Université de Washington et a été nommé l'une des personnes les plus influentes dans le domaine de l'IA par le magazine Time. Hanna est directrice de recherche à l'organisation à but non lucratif. Institut de recherche sur l'IA distribuée Un ancien membre de l'équipe d'IA éthique de Google.

Une couverture de livre

La popularité massive de ChatGPT fin 2022 a déclenché un nouveau cycle de battage médiatique autour de l'intelligence artificielle. Le battage médiatique, comme le définissent les auteurs, est le « battage médiatique » d’une technologie que vous êtes convaincu de devoir acheter ou dans laquelle vous devez investir « pour ne pas manquer le plaisir, la récompense en espèces, le retour sur investissement ou la part de marché ». Mais ce n’est pas la première fois, et ce ne sera probablement pas la dernière, que les scientifiques, les dirigeants gouvernementaux et les citoyens ordinaires sont attirés et préoccupés par l’idée de l’apprentissage automatique et de l’intelligence artificielle.

Binder et Hanna font remonter les racines de l’apprentissage automatique aux années 1950, lorsque le mathématicien John McCarthy a inventé le terme d’intelligence artificielle. C’était une époque où les États-Unis cherchaient à financer des projets qui aideraient le pays à acquérir une certaine supériorité sur les Soviétiques sur le plan militaire, idéologique et technologique. « Ce n'est pas sorti comme ça de la tête de Zeus. Cela a une histoire plus longue », a déclaré Hanna à CNET. « Ce n’est certainement pas le premier cycle de battage médiatique autour de l’IA, je cite. »

Le cycle de battage médiatique actuel est alimenté par des milliards de dollars d'investissements en capital-risque dans des startups comme OpenAI et des géants de la technologie comme Meta, Google et Microsoft qui investissent des milliards dans la recherche et le développement de l'IA. Le résultat est clair, comme le montre le dernier Phone Les ordinateurs portables et les mises à jour logicielles sont saturés de déchets d’IA. Rien n’indique que la recherche et le développement de l’IA vont ralentir, grâce à la volonté croissante de dépasser la Chine en matière de développement de l’IA. Ce n’est pas vraiment le premier cycle de battage médiatique.

Bien sûr, l’IA générative de 2025 est bien plus avancée que le chatbot de psychothérapie Eliza qui a captivé les scientifiques dans les années XNUMX. Les dirigeants et les employés d’aujourd’hui sont inondés de battage médiatique, avec une forte dose de peur de passer à côté d’une terminologie apparemment complexe mais souvent mal utilisée. À écouter les dirigeants technologiques et les passionnés d’IA, on pourrait croire que l’IA va prendre votre travail et faire économiser de l’argent à votre entreprise. Mais les auteurs soutiennent qu'aucune de ces deux hypothèses n'est totalement probable, ce qui est l'une des raisons pour lesquelles il est important de reconnaître et de dépasser le battage médiatique.

Alors, comment identifier l'engouement pour l'IA ? Voici quelques signes révélateurs, selon Binder et Hanna, que nous partageons ci-dessous. Dans leur livre, les auteurs présentent un certain nombre de questions à se poser et de stratégies pour identifier l'engouement pour l'IA. Disponible dès maintenant Aux États-Unis

Faites attention au langage qui humanise l’IA.

L'humanisation, ou le processus consistant à donner des qualités ou des caractéristiques humaines à un objet inanimé, constitue une part importante du battage médiatique autour de l'IA. Un exemple de ce type de langage est lorsque les entreprises d’IA disent que leurs chatbots peuvent désormais « voir » et « penser ».

Ces comparaisons peuvent être utiles pour tenter de décrire la capacité des nouveaux programmes d’IA à identifier des objets ou des modèles d’IA dotés d’un raisonnement approfondi, mais elles peuvent également être trompeuses. Les chatbots alimentés par l’IA ne peuvent ni voir ni penser car ils n’ont pas d’esprit. Même l'idée des réseaux neuronaux, comme le souligne Hannah dans notre interview et dans le livre, est basée sur une compréhension humaine des neurones des années 1950, pas vraiment sur la façon dont fonctionnent les neurones, mais elle peut nous tromper en nous faisant croire qu'il y a un esprit derrière la machine.

Cette croyance est quelque chose à laquelle nous sommes prédisposés en raison de la façon dont nous traitons le langage en tant qu’êtres humains. Nous sommes conditionnés à imaginer qu’il y a un esprit derrière le texte que nous voyons, même lorsque nous savons qu’il a été généré par l’intelligence artificielle, a déclaré Bender. « Nous interprétons le langage en développant un modèle dans notre esprit de qui était l’orateur », a ajouté Bandar.

Dans ces modèles, nous utilisons notre connaissance de la personne qui parle pour créer du sens, pas seulement le sens des mots qu’elle prononce. « Ainsi, lorsque nous rencontrons du texte synthétique généré par quelque chose comme ChatGPT, nous ferons la même chose », a déclaré Bandar. « Il est très difficile de se rappeler que l'esprit n'existe pas. Ce n'est qu'une construction que nous avons créée. »

Les auteurs soutiennent qu’une des raisons pour lesquelles les entreprises d’IA tentent de nous convaincre que leurs produits sont de type humain est que cela pose les bases pour nous convaincre que l’IA peut remplacer les humains, que ce soit au travail ou en tant que créateurs. Il est convaincant de croire que l’IA pourrait être la solution magique aux problèmes complexes dans des secteurs critiques comme la santé et les services gouvernementaux.

Mais le plus souvent, affirment les auteurs, l’IA n’est pas utilisée pour réparer quoi que ce soit. L’IA est vendue pour son efficacité, mais les services d’IA finissent par remplacer les travailleurs qualifiés par des machines de type boîte noire qui nécessitent une attention considérable de la part de travailleurs sous contrat à bas salaire ou de travailleurs indépendants. Comme Hannah l’a dit dans notre interview : « L’IA ne vous prendra pas votre travail, mais elle le rendra pire. »

Soyez prudent avec l’expression « superintelligence ».

Si les humains ne peuvent pas faire quelque chose, vous devez être prudent quant aux affirmations selon lesquelles l’IA peut le faire. « La superintelligence, ou superintelligence, est un terme très dangereux, dans la mesure où il suggère que certaines technologies rendront les humains inutiles », a déclaré Hannah. Dans certains domaines, comme la recherche de motifs à grande échelle, les ordinateurs sont très performants. Mais si l'idée d'un poème révolutionnaire, ou d'une idée révolutionnaire pour la recherche ou la pratique scientifique, est présente, c'est clairement une promotion. « Nous ne parlons pas d’avions comme de super-avions ou de règles comme de super-mesures », a ajouté Bender. « Cela ne semble apparaître que dans le domaine de l’intelligence artificielle. »

L’idée d’IA « superintelligence » revient souvent lorsque l’on parle d’intelligence artificielle générale. De nombreux dirigeants ont du mal à définir exactement ce qu’est l’intelligence artificielle générale (AGI), mais il s’agit essentiellement de la forme la plus avancée d’intelligence artificielle, potentiellement capable de prendre des décisions et de gérer des tâches complexes. Il n’existe toujours aucune preuve que nous soyons proches d’un avenir rendu possible par l’AGI, mais c’est un mot à la mode.

Nombre de ces déclarations futuristes des dirigeants de l’IA empruntent des tropes à la science-fiction. Les partisans comme les pessimistes – c’est ainsi que Binder et Hannah décrivent les passionnés de l’IA et ceux qui s’inquiètent du potentiel de nuisance – s’appuient sur des scénarios de science-fiction. Les partisans imaginent une société future alimentée par l’intelligence artificielle. Les pessimistes déplorent un avenir dans lequel les robots dotés d’intelligence artificielle prendraient le contrôle du monde et anéantiraient l’humanité.

Selon les auteurs, le point commun est la conviction profonde que l’IA est plus intelligente que les humains et qu’elle est inévitable. « L’une des choses que nous voyons souvent dans le discours est l’idée que l’avenir est fixe, et que tout dépend de la rapidité avec laquelle nous y parviendrons », a déclaré Bender. « Et puis, il y a cette affirmation selon laquelle cette technologie est un pas dans cette direction, et tout cela n'est que du marketing. C'est utile de pouvoir voir plus loin. »

L’une des raisons pour lesquelles l’IA est si populaire est qu’un assistant IA fonctionnel et autonome permettra aux entreprises d’IA de tenir leurs promesses d’innovation révolutionnaire envers leurs investisseurs. Planifier cet avenir, qu’il soit utopique ou dystopique, incite les investisseurs à regarder vers l’avenir tandis que les entreprises brûlent des milliards de dollars et admettent qu’elles ne parviendront pas à atteindre leurs objectifs d’émissions de carbone. Pour le meilleur ou pour le pire, la vie n’est pas de la science-fiction. Lorsque vous voyez quelqu'un affirmer que son produit d'IA est tiré directement d'un film, c'est un bon signe qu'il faut l'aborder avec scepticisme.

Renseignez-vous sur les apports de l’IA et sur la manière d’évaluer ses résultats.

L’un des moyens les plus simples de repérer une fraude marketing liée à l’IA est de vérifier si l’entreprise divulgue son fonctionnement. De nombreuses entreprises d’IA ne divulguent pas le contenu utilisé pour former leurs modèles. Mais ils révèlent généralement ce que l'entreprise fait de vos données et se vantent parfois de la manière dont ses modèles surpassent ceux de ses concurrents. C'est ici que vous devriez commencer vos recherches, généralement dans leurs politiques de confidentialité.

L’une des plus grandes plaintes et préoccupations des créateurs concerne la manière dont les modèles d’IA sont formés. Il existe de nombreux procès liés à des violations présumées du droit d’auteur, et de nombreuses inquiétudes existent quant aux préjugés des chatbots alimentés par l’IA et à leur potentiel de nuisance. « Si vous souhaitez créer un système conçu pour faire avancer les choses plutôt que de reproduire les injustices du passé, vous devez commencer par organiser vos données », explique Bender. Au lieu de cela, les entreprises d’IA prennent le contrôle de « tout ce qui n’était pas installé sur Internet », explique Hannah.

Si vous entendez parler d’un produit d’IA pour la première fois, une chose à laquelle il faut prêter une attention particulière est tout type de statistiques qui mettent en évidence son efficacité. Comme de nombreux autres chercheurs, Bender et Hannah soulignent que tout résultat sans citation est un signal d’alarme. « Chaque fois que quelqu'un vous vend quelque chose et ne vous donne pas accès à la façon dont il est évalué, vous êtes sur un terrain instable », explique Bender.

Il peut être frustrant et décevant que les entreprises d'IA ne divulguent pas d'informations précises sur le fonctionnement et le développement de leurs produits. Identifier ces lacunes dans leur argumentaire de vente peut aider à décrypter le bruit, même s'il serait préférable de disposer de ces informations. Pour en savoir plus, consultez la page Glossaire ChatGPT Notre intégralité et comment l'éteindre Apple Intelligence.

Les commentaires sont fermés.