Glossaire
Prompt Injection (injection de prompt)
Attaque qui manipule un modèle de langage (LLM) en injectant des instructions malveillantes dans les données qu'il traite. L'injection de prompt peut forcer un chatbot à ignorer ses consignes, divulguer des données confidentielles ou exécuter des actions non autorisées. C'est la faille n°1 du Top 10 OWASP LLM Security.