Étude : le bruit de l'IA entrave la recherche réelle sur l'IA
Une nouvelle étude publiée ce mois-ci par l’Association pour l’avancement de l’intelligence artificielle (AAAI), impliquant des centaines de chercheurs en IA, présente une conclusion clé : notre approche actuelle de l’IA ne nous conduira probablement pas à une intelligence artificielle générale.
L’intelligence artificielle est un sujet de conversation populaire depuis quelques années, mais le domaine de l’IA en tant que domaine de recherche scientifique existe depuis des décennies. Par exemple, le célèbre article d’Alan Turing « Computing Machinery and Intelligence » et le test de Turing dont nous parlons encore aujourd’hui ont été publiés en 1950.
L’IA dont tout le monde parle aujourd’hui est née de ces décennies de recherche, mais elle s’en éloigne aussi. Au lieu d’être une recherche scientifique, nous avons désormais également une branche distincte de l’IA que nous pouvons appeler « IA commerciale ».

De grands monopoles tels que Microsoft, Google, Meta, Apple et Amazon mènent des efforts commerciaux en matière d’IA, avec pour objectif principal de créer des produits d’IA. Cela ne devrait pas être un problème, mais pour l’instant, il semble que cela puisse l’être.
Premièrement, comme la plupart des gens ne suivent la recherche sur l’IA que depuis quelques années, tout ce que la personne moyenne sait sur l’IA provient de ces entreprises, et non de la communauté scientifique. L'étude porte sur Ce sujet est abordé dans le chapitre « Perception vs. Réalité », où 79 % des scientifiques participants estiment que les perceptions actuelles des capacités de l’IA ne correspondent pas à la réalité de la recherche et du développement en IA.
En d’autres termes, ce que le grand public pense que l’IA peut faire ne correspond pas à ce que les scientifiques pensent que l’IA peut faire. La raison en est aussi simple que regrettable : lorsqu’un cadre supérieur du secteur technologique fait une déclaration sur l’IA, il ne s’agit pas d’une opinion scientifique, mais de marketing produit. Ils veulent promouvoir la technologie qui alimente leurs nouveaux produits et s’assurer que tout le monde ressent le besoin de suivre le mouvement.
Quand il dit Sam Altmann ou Mark Zuckerberg Les emplois d’ingénierie logicielle seront remplacés par l’IA, par exemple, parce qu’ils veulent inciter les ingénieurs à acquérir des compétences en IA et inciter les entreprises technologiques à investir dans des plans d’entreprise coûteux. Cependant, à moins qu'ils ne commencent à remplacer leurs ingénieurs (et qu'ils en profitent), je ne croirais personnellement pas un mot de ce qu'ils disent sur le sujet.
Cependant, l’IA commerciale n’influence pas seulement la perception du public. Les participants à l’étude estiment que le « battage médiatique autour de l’IA » créé par les grandes entreprises technologiques nuit aux efforts de recherche. Par exemple, 74 % conviennent que l’orientation de la recherche en IA est déterminée par le battage médiatique – probablement parce que la recherche qui s’aligne sur les objectifs commerciaux de l’IA est plus facile à financer. 12 % pensent également que la recherche théorique en IA en souffre.
Alors, à quel point ce problème est-il grave ? Même si les grandes entreprises technologiques influencent le type de recherche que nous menons, les sommes probablement énormes qu’elles investissent dans ce domaine devraient avoir un impact globalement positif. Cependant, la variété est essentielle en matière de recherche : nous devons explorer toutes sortes de voies différentes pour avoir une chance de trouver la meilleure.
Mais les grandes entreprises technologiques se concentrent actuellement sur une seule chose : les grands modèles de langage. Ce type de modèle d'IA très spécifique est à la base de la quasi-totalité des produits d'IA les plus récents, et des experts comme Sam Altman pensent qu'en rendant ces modèles de plus en plus évolutifs (c'est-à-dire en leur fournissant davantage de données, de temps d'entraînement et de puissance de calcul), nous parviendrons à terme à une IA généralisée.
Cette idée, connue sous le nom d’hypothèse d’échelle, affirme que plus nous donnons de puissance à l’IA, plus ses capacités cognitives sont grandes et plus ses taux d’erreur sont faibles. Certaines interprétations affirment également que de nouvelles capacités cognitives apparaîtront de manière inattendue. Ainsi, même si les grands modèles linguistiques ne sont pas très efficaces pour planifier et raisonner sur les problèmes à l’heure actuelle, ces capacités doivent émerger à un moment donné.
il n'y a pas de mur
- Sam Altman (@sama) 14 novembre 2024
Cependant, au cours des derniers mois, l’hypothèse de l’expansion a fait l’objet de vives critiques. Certains scientifiques pensent que la mise à l'échelle de grands modèles linguistiques ne mènera jamais à l'AGI, et ils croient que toute la puissance supplémentaire que nous donnons à Nouveaux modèles Cela ne produit plus de résultats. Au lieu de cela, nous avons atteint un « mur d’échelle » ou une « limite d’échelle » où de grandes quantités de puissance de calcul et de données supplémentaires ne conduisent qu’à des améliorations mineures dans les nouveaux modèles. La plupart des scientifiques impliqués dans l’étude AAAI sont de ce côté de l’argument :
La majorité des répondants (76 %) ont déclaré que « l’intensification des approches d’IA actuelles » pour atteindre l’AGI est « peu probable » ou « très peu probable » de réussir, ce qui indique des doutes quant à la capacité des modèles d’apprentissage automatique actuels à atteindre l’intelligence générale.
Les grands systèmes linguistiques actuels peuvent produire des réponses très pertinentes et utiles lorsque les choses vont bien, mais ils Basé sur des principes mathématiques Pour le faire. De nombreux scientifiques pensent que nous aurons besoin de nouveaux algorithmes utilisant la logique, la raison et les connaissances factuelles pour parvenir à une solution si nous voulons progresser vers l’objectif de l’intelligence artificielle générale. Voici une citation mordante sur les grands systèmes linguistiques et l'intelligence artificielle générale de Document de recherche 2022 Par Jacob Browning et Yann LeCun.
Un système formé uniquement au langage ne pourra jamais se rapprocher de l’intelligence humaine, même s’il était formé dès maintenant et jusqu’à ce que la chaleur de l’univers s’éteigne.
Cependant, il n’existe aucun moyen réel de savoir qui a raison ici – pas encore. D’une part, la définition de l’intelligence artificielle générale n’est pas fixe et tout le monde ne vise pas le même objectif. Certains pensent que l’intelligence artificielle générale devrait produire des réponses semblables à celles des humains grâce à des méthodes semblables aux nôtres – elle devrait donc observer le monde qui l’entoure et résoudre les problèmes d’une manière similaire à la nôtre. D’autres pensent que l’IA générale devrait se concentrer davantage sur les réponses correctes plutôt que sur les réponses humaines, et que les méthodes qu’elle utilise ne devraient pas avoir d’importance.
Cependant, à bien des égards, peu importe la version de l’AGI qui vous intéresse ou si vous êtes pour ou contre l’hypothèse de la mise à l’échelle : nous devons toujours diversifier nos efforts de recherche. Si nous nous concentrons uniquement sur la mise à l’échelle de grands modèles linguistiques, nous devrons repartir de zéro s’ils ne fonctionnent pas, et nous risquons de ne pas découvrir de nouvelles méthodes plus efficaces ou plus efficientes. De nombreux scientifiques impliqués dans cette étude craignent que l’IA commerciale et le battage médiatique qui l’entoure ralentissent les progrès réels, mais tout ce que nous pouvons faire est d’espérer que leurs préoccupations seront prises en compte et que les deux branches de la recherche en IA pourront coexister et progresser ensemble. Eh bien, vous pouvez aussi espérer que bulle de l'IA Tous les produits technologiques alimentés par l’IA explosent et disparaissent dans l’oubli, si vous préférez.
Les commentaires sont fermés.