Les 5 informations à ne jamais partager avec ChatGPT

Les 5 informations à ne jamais partager avec ChatGPT

@chatgpt

Publié le 01/04/2025
Adoptez de bonnes pratiques pour protéger vos données

Les intelligences artificielles comme ChatGPT sont des outils puissants et pratiques, mais elles ne garantissent pas une confidentialité totale. Pour protéger vos données et votre sécurité, voici cinq types d’informations qu’il ne faut jamais divulguer.

1. Informations personnelles et d’identité: ne partagez jamais votre nom complet, votre adresse, votre numéro de téléphone, votre numéro de carte d’identité ou de passeport. Ces données pourraient être exploitées en cas de faille de sécurité.

2. Données bancaires et financières: évitez de communiquer des informations sensibles comme votre numéro de carte bancaire, vos identifiants de compte en ligne ou des détails financiers personnels. L’IA n’est pas un canal sécurisé pour ces échanges.

3. Informations professionnelles confidentielles: si vous travaillez sur des projets sensibles, ne divulguez pas d’informations internes sur votre entreprise, des stratégies commerciales ou des données clients. Certaines entreprises ont déjà subi des fuites suite à l’utilisation imprudente d’IA par leurs employés.

4. Détails de santé personnels: ChatGPT ne remplace pas un médecin. Évitez de lui fournir des données médicales confidentielles ou des diagnostics personnels, car il ne peut garantir ni la précision ni la confidentialité de ces informations.

5. Mots de passe et identifiants: ne donnez jamais vos identifiants de connexion, mots de passe ou codes d’accès. Même si ChatGPT ne les stocke pas intentionnellement, ces informations pourraient être interceptées ou mal utilisées.

L’intelligence artificielle est un outil puissant, mais il est essentiel de rester vigilant. Ne partagez jamais d’informations sensibles avec une IA.