Glossaire

Prompt Injection (injection de prompt)

Attaque qui manipule un modèle de langage (LLM) en injectant des instructions malveillantes dans les données qu'il traite. L'injection de prompt peut forcer un chatbot à ignorer ses consignes, divulguer des données confidentielles ou exécuter des actions non autorisées. C'est la faille n°1 du Top 10 OWASP LLM Security.

Pages associées

Autres termes

Besoin d'une revue externe de votre SaaS RH ?

Expliquez votre produit, votre stack et votre contexte client. Nous revenons vers vous avec le bon niveau de revue.

Parler de votre audit