Commencez bientôt à entraîner votre modèle Claude AI sur vos données : voici comment vous désinscrire avant la date limite

Ce que vous devez faire pour dire « non »

Anthropic, un développeur d'IA, mène... Claude… modifie radicalement sa façon de gérer les données des utilisateurs. À partir d'aujourd'hui, les utilisateurs de Claude devront choisir entre autoriser Anthropic à utiliser leurs conversations pour entraîner de futurs modèles d'IA ou refuser et préserver la confidentialité de leurs données. Si vous ne vous décidez pas d'ici le 28 septembre 2025, vous perdrez définitivement l'accès à Claude.

Claude sur ordinateur portable

Auparavant, Anthropic privilégiait la confidentialité : vos conversations et vos jetons étaient automatiquement supprimés après 30 jours, sauf pour des raisons légales. Désormais, sauf désinscription, vos données seront conservées jusqu'à cinq ans et intégrées aux sessions de formation pour aider Claude à devenir plus intelligent.

La nouvelle politique s'applique à tous les forfaits, y compris Gratuit, Pro et Max, ainsi qu'à Cloud Code au sein de ces niveaux. Les utilisateurs des entreprises, des administrations publiques, de l'éducation et des API ne sont pas concernés.

Mécanisme d'action

Lors de leur inscription, les nouveaux utilisateurs auront la possibilité de consentir à l'utilisation de leurs données pour améliorer les performances du modèle Claude AI. Les utilisateurs existants verront une fenêtre contextuelle intitulée « Mises à jour des conditions générales et des politiques de confidentialité ». En appuyant sur le gros bouton bleu « Accepter », ils acceptent automatiquement cette fonctionnalité, tandis qu'un bouton plus petit permet de la désactiver.

Si vous ignorez cette fenêtre, Claude cessera de fonctionner après le 28 septembre. Il est important de noter que ce changement n'affecte que les conversations et le code futurs. Tout ce que vous avez écrit précédemment ne sera utilisé que si vous rouvrez ces conversations. Et si vous supprimez une conversation, elle ne sera pas utilisée pour l'entraînement.

Vous pouvez modifier votre décision ultérieurement dans vos paramètres de confidentialité. Cependant, une fois les données utilisées pour l'entraînement, elles ne peuvent plus être récupérées. Il est important de comprendre ce mécanisme pour protéger votre vie privée et vos données lorsque vous utilisez Cloud.

Pourquoi Anthropic fait-il ce changement ?

Dario Amodei, PDG d'Anthropic

Anthropic affirme que les données utilisateurs sont essentielles à l'amélioration des performances de son modèle de langage Claude dans de nombreux domaines, du « vibe coding » et de la programmation traditionnelle aux capacités d'inférence et au respect des normes de sécurité. Anthropic souligne qu'elle ne vend pas ces données à des tiers et utilise des filtres automatisés pour supprimer les informations sensibles avant de les utiliser pour entraîner ses modèles.

Cependant, ce changement modifie l'équilibre en matière de confidentialité : le partage des données, par défaut, est désormais autorisé, sauf opposition explicite de l'utilisateur. Autrement dit, vos données seront collectées et utilisées par défaut pour améliorer Claude, et vous devrez prendre des mesures pour mettre fin à cette pratique si vous préférez ne pas les partager. Ce changement vise à améliorer les capacités d'IA de Claude en exploitant les données des utilisateurs, tout en soulignant l'engagement d'Anthropic à protéger la confidentialité des utilisateurs grâce à des mécanismes de filtrage des données sensibles.

Quel est votre choix ?

La décision d'Anthropic de mettre Claude sur une voie plus rapide pour améliorer les données du monde réel sur lesquelles il s'entraîne signifie que plus le modèle sera efficace pour répondre à des questions complexes, écrire du code et éviter les erreurs, plus il fera progresser l'IA.

Cependant, ces progrès se font au détriment des utilisateurs qui peuvent désormais faire partie d’un ensemble de formation, leurs données étant stockées pendant des années plutôt que des semaines.

Pour les utilisateurs lambda, cela peut paraître anodin. Mais pour les utilisateurs soucieux de leur vie privée, ou pour toute personne discutant de projets professionnels, de questions personnelles ou d'informations sensibles dans le Cloud, cette mise à jour pourrait être un signal d'alarme.

Avec le paramètre par défaut activé, il est désormais de votre responsabilité de désactiver cette option si vous souhaitez garder vos données privées.

Les commentaires sont fermés.