Votre politesse avec ChatGPT augmente les coûts énergétiques d'OpenAI.
Nous avons tous entendu le dicton « La littérature ne coûte rien », mais avec l’essor des chatbots alimentés par l’IA, nous devrons peut-être revoir cette affirmation.
Quelqu'un a récemment demandé : Plateforme X À propos de la quantité d'électricité dépensée par OpenAI dans ses centres de données pour traiter des phrases polies telles que « s'il vous plaît » et « merci » lorsque les utilisateurs interagissent avec le chatbot ChatGPT.
Probablement à la surprise de l'auteur du post, Sam Altman, PDG d'OpenAI, a répondu : en disant« Des dizaines de millions de dollars bien dépensés », a-t-il déclaré, avant d’ajouter : « On ne sait jamais. »
De nombreuses personnes qui interagissent avec des chatbots basés sur l'IA, que ce soit par SMS ou par la voix, trouvent l'expérience conversationnelle si réaliste qu'il leur semble naturel de demander des informations et d'y répondre poliment. Mais comme le souligne Altman, ces petits ajouts doivent être gérés par des outils d'IA gourmands en énergie, ce qui engendre des coûts supplémentaires pour l'entreprise et, surtout, pour l'environnement, puisque la plupart des centres de données fonctionnent encore à l'électricité produite à partir de combustibles fossiles.
Pensez-y. Chaque phrase polie augmente la charge de traitement, ce qui, multiplié par des milliards de requêtes, entraîne une consommation d’énergie supplémentaire significative.
Une enquête menée aux États-Unis l’année dernière a révélé que 67 % des participants Ils ont déclaré avoir été polis. Avec les chatbots alimentés par l’IA, 33 % préfèrent éviter les politesses et aller droit au but.
Alors, devrions-nous essayer d’abandonner les politesses et d’être moins polis dans nos interactions avec ChatGPT et d’autres chatbots alimentés par l’IA ? Ou continuons-nous à être polis, malgré les défauts ?
La recherche a montré menée l'année dernière Le niveau de littérature peut avoir un impact considérable sur la qualité du grand modèle de langage (LLM) qui fournit des réponses via les chatbots.
Les chercheurs ont conclu que « des invites impolies peuvent conduire à une dégradation des performances du modèle, y compris des générations avec des erreurs, des biais plus forts et des omissions d’informations ».
Dans le même contexte, Un journaliste de TechRadar a découvert Ceux qui ont récemment essayé de parler à ChatGPT d’une manière moins polie ont constaté que les réponses « semblaient moins utiles ».
Pour beaucoup, être moins poli envers les chatbots alimentés par l’IA peut être un défi, et cela peut faire plus que simplement réduire les coûts énergétiques d’OpenAI et alléger la charge sur l’environnement. Certains chercheurs craignent que s'il devient socialement acceptable d'être impoli envers les chatbots alimentés par l'IA, ce comportement pourrait commencer à infiltration dans les interactions personnelles, ce qui peut rendre les échanges humains moins polis au fil du temps.
Les commentaires sont fermés.