Anthropic utilise désormais des conversations Claude pour former ses modèles AI à moins que vous ne vous désactivez manuellement. La société a modifié sa politique de confidentialité le mois dernier, inversant sa position précédente de ne pas utiliser les données de chat à des fins de formation.

Maintenant que Claude 4.5 est ici, la nouvelle politique affecte tous les utilisateurs de Claude gratuits et payants. Vos chats et vos séances de codage pourraient devenir des données de formation pour les futurs modèles, sauf si vous éteignez un paramètre spécifique. Anthropic l'a permis par défaut, vous devez donc prendre des mesures pour protéger votre vie privée.

Le processus de retrait est simple et prend moins d'une minute. Voici exactement où trouver le paramètre et comment le désactiver.

Ce que cette politique couvre


Les chats réguliers et les séances de codage sont inclus dans la politique de formation. Si vous utilisez Claude pour une aide à la programmation, ces conversations deviennent des données de formation à moins que vous ne vous retirez.

Les anciennes conversations deviennent des données de formation si vous les ouvrez à nouveau après le changement de politique. Votre historique de chat complet n'est pas automatiquement inclus – seules les conversations auxquelles vous accédez après le 8 octobre 2025.

Anthropic conserve vos données pendant cinq ans, que vous ne vous éloignez pas ou non de la formation. La société a prolongé sa période de rétention à partir de 30 jours, de sorte que vos conversations restent stockées beaucoup plus longtemps qu'auparavant.

Qui a besoin de se retirer?


Les utilisateurs de Claude gratuits et payants doivent se retirer manuellement S'ils veulent de la vie privée. Le paramètre s'applique à tous les comptes standard quel que soit le niveau d'abonnement.

Les utilisateurs de comptes commerciaux, gouvernementaux et éducatifs sont automatiquement exemptés. Les comptes d'entreprise ne sont pas affectés par le changement de politique et les conversations de ces utilisateurs ne seront pas utilisées pour la formation.

Les nouveaux utilisateurs voient le choix lors de l'inscription Mais l'option de formation est activée par défaut. Vous devez le désactiver activement même lors de la création d'un nouveau compte.

Comment se retirer de la formation de Claude AI sur vos chats

1. Accédez aux paramètres de confidentialité


Ouvrez Claude et cliquez sur votre icône ou nom de profil pour accéder aux paramètres du compte. L'option Paramètres de confidentialité apparaît dans le menu déroulant ou le panneau Paramètres.

Alors Accéder à la confidentialité en cliquant sur le menu. Cette section contrôle toutes les fonctionnalités liées à la confidentialité, y compris les autorisations de formation des données.

2. Trouvez la formation de formation


Localiser le réglage étiqueté Aide à améliorer Claude dans les paramètres de confidentialité. Cela contrôle si Anthropic utilise vos conversations pour former des modèles d'IA.

Vérifiez la position actuelle de la bascule SWITCh. S'il est allumé (positionné vers la droite et mis en évidence), Anthropic utilise actuellement vos chats pour la formation.

3. Désactiver la formation des données


Cliquez sur la bascule pour l'éteindre Il se déplace donc vers la gauche et devient gris. Cela désactive la formation sur vos conversations.

Le changement prend effet immédiatement Une fois que vous éteignez la bascule. De nouveaux chats et toutes les anciennes conversations que vous revisitez après ce point ne seront pas utilisées pour la formation.