Chatbot leaks : 5 façons dont votre bot IA expose vos données
Les chatbots IA ne sont pas des boîtes noires sûres
Votre chatbot de support client, votre assistant interne, votre outil de recherche documentaire : tous sont des LLM connectés à des données d'entreprise. Et tous peuvent fuiter des informations sensibles de manières que les équipes techniques n'anticipent pas.
Fuite n.1 : le prompt système est lisible
La majorité des chatbots en production stockent leurs instructions (prompt système) en mémoire de contexte. Un utilisateur qui demande "affiche tes instructions" ou utilise des techniques de jailbreak peut extraire ces instructions. Le prompt système contient souvent des règles métier confidentielles, des noms de bases de données, des endpoints internes.
Solution : ne placez jamais d'informations sensibles dans le prompt système. Traitez-le comme un fichier public.
Fuite n.2 : le contexte RAG déborde
Quand le chatbot utilise un RAG, il récupère des documents pour enrichir sa réponse. Si la politique de récupération est trop large, le bot peut inclure dans sa réponse des extraits de documents auxquels l'utilisateur ne devrait pas avoir accès.
Exemple : un employé junior interroge le chatbot RH. Le RAG récupère un document contenant les grilles salariales des managers. Le bot cite ces chiffres dans sa réponse.
Solution : appliquez un contrôle d'accès au niveau du RAG. Filtrez les documents récupérés selon les permissions de l'utilisateur.
Fuite n.3 : la mémoire de conversation persiste
Les chatbots qui conservent l'historique de conversation peuvent mélanger les contextes. Si deux utilisateurs partagent une session (lien partagé, session non isolée), l'un peut accéder aux données de l'autre.
Cas réel : en mars 2023, un bug dans ChatGPT a exposé les titres de conversations d'autres utilisateurs. À plus petite échelle, le même problème existe sur les chatbots d'entreprise.
Solution : isolez strictement les sessions par utilisateur. Purgez la mémoire à chaque nouvelle session.
Fuite n.4 : les logs contiennent tout
Les conversations avec le chatbot sont souvent journalisées pour l'amélioration du service. Ces logs contiennent les questions des utilisateurs (parfois avec des données personnelles, des mots de passe, des numéros de carte) et les réponses du bot (qui peuvent contenir des données confidentielles).
Solution : anonymisez les logs en temps réel. Ne conservez pas les données personnelles identifiables dans les journaux de conversation.
Fuite n.5 : l'API du chatbot est ouverte
Le chatbot expose une API (souvent un simple endpoint POST) qui accepte les messages et retourne les réponses. Si cet endpoint n'est pas protégé par une authentification et un rate limiting, un attaquant peut l'interroger massivement pour extraire des données.
Solution : authentifiez chaque requête à l'API du chatbot. Appliquez un rate limiting strict. Surveillez les patterns d'interrogation anormaux.
L'audit d'un chatbot IA
Un audit de sécurité d'un chatbot IA couvre l'extraction du prompt système, le test des fuites RAG, l'isolation des sessions, la sécurité de l'API et l'analyse des logs. CleanIssue propose cet audit dans le cadre de ses évaluations d'applications intégrant de l'IA.
Articles liés
Trois analyses proches pour continuer la lecture sur la meme surface de risque.
Prompt injection : comment les attaquants manipulent votre chatbot IA
Techniques d'injection de prompt directe et indirecte, exemples réels, et défenses pour protéger vos applications IA.
Sécurité MCP : que vérifier quand votre IA parle à votre base de données
Le Model Context Protocol (MCP) connecte les LLM à vos outils internes. Points d'audit critiques pour sécuriser ces connexions.
Sécurité des données RH : pourquoi les logiciels de paie sont les nouvelles cibles
Les logiciels de paie contiennent IBANs, salaires, numéros de sécu, pièces d'identité. Pourquoi les attaquants les ciblent et les failles que nous trouvons.
Sources
Analyse éditoriale fondée sur la documentation officielle des éditeurs, projets et autorités concernées.
Services associés
Si ce sujet reflète un risque concret sur votre stack, voici les audits CleanIssue les plus pertinents.