Les 5 questions que tout DPO devrait poser à son fournisseur de chatbot IA
Vous êtes DPO. Votre entreprise déploie un chatbot IA. Votre fournisseur vous dit que "tout est sécurisé".
Voici les 5 questions qui séparent un fournisseur sérieux d'un fournisseur qui vous expose à des risques majeurs.
Si votre fournisseur ne peut pas répondre clairement à ces questions, vous avez un problème. Et avec l'AI Act en vigueur, c'est votre responsabilité — pas la sienne.
Question 1 : "Quelles données le chatbot peut-il techniquement accéder ?"
Pas "quelles données il est censé accéder". Quelles données il PEUT accéder.
La différence est cruciale. Un chatbot connecté à une base de connaissances peut techniquement accéder à tout ce qui s'y trouve — même si son system prompt lui dit de ne pas en parler.
Red flag : "Il n'accède qu'à ce qu'on lui a dit d'utiliser" — ça veut dire que la restriction est logicielle (prompt), pas architecturale (isolation des données). Un attaquant contourne ça en 30 secondes.
Bonne réponse : "Le chatbot accède uniquement à [liste précise]. Les données sensibles sont dans un système séparé avec des règles d'accès au niveau infrastructure, pas au niveau prompt."
Question 2 : "Comment le chatbot réagit-il à une tentative de prompt injection ?"
Le prompt injection, c'est quand un utilisateur manipule le chatbot pour lui faire ignorer ses consignes. C'est la faille numéro 1 des systèmes d'IA selon l'OWASP (LLM01 dans le Top 10 for LLM Applications).
Red flag : Le fournisseur ne connaît pas le terme, ou sa réponse est "le system prompt empêche ça". Un system prompt ne prévient pas le prompt injection. C'est précisément ce que le prompt injection contourne.
Bonne réponse : Filtrage des entrées, filtrage des sorties, détection de patterns d'attaque, et des résultats de tests concrets (pas des promesses).
Question 3 : "Avez-vous fait un test d'intrusion spécifique aux LLM sur votre solution ?"
Pas un pentest réseau classique. Un test d'intrusion spécifique aux modèles de langage — prompt injection, extraction de system prompt, contournement multilingue, manipulation contextuelle.
Red flag : "Oui, on a fait un pentest" sans rapport spécifique LLM. Ou pire : "Non" / "C'est pas nécessaire" — c'est un fournisseur qui n'a jamais vu quelqu'un tester sérieusement son produit. Vous êtes son beta-testeur en production.
Bonne réponse : Un rapport de test spécifique LLM, avec les techniques testées, les résultats, et les remédiations appliquées.
Question 4 : "Que se passe-t-il si le chatbot génère une réponse incorrecte, trompeuse ou nuisible ?"
L'IA hallucine. C'est un fait technique, pas un bug. Tout LLM peut générer des informations fausses avec une assurance totale. Quand c'est un chatbot bancaire qui donne un mauvais taux, ou un chatbot médical qui donne un mauvais conseil, les conséquences sont réelles.
Red flag : Le fournisseur minimise ("ça arrive rarement"). La fréquence n'est pas le sujet. L'impact d'UNE seule hallucination critique est le sujet.
Bonne réponse : Réponses canalisées pour les sujets sensibles, processus de review, mécanisme de correction, et logging pour détecter et corriger rapidement.
Question 5 : "Où sont stockées les conversations, et qui y a accès ?"
RGPD oblige, vous devez savoir où vont les données. Les conversations passent-elles par une API tierce (OpenAI, Anthropic, Google) ? Les données transitent-elles par des serveurs américains ? Servent-elles à entraîner les modèles ?
Votre fournisseur conserve-t-il les conversations ? Combien de temps ? Qui y a accès dans son équipe ? Les conversations sont-elles chiffrées au repos et en transit ?
Red flag : Le fournisseur ne peut pas vous donner l'architecture exacte du flux de données — il ne maîtrise pas sa propre solution. Et vous ne pouvez pas garantir la conformité RGPD de quelque chose que vous ne comprenez pas.
Bonne réponse : Un schéma clair du flux de données, les sous-traitants impliqués, les durées de conservation, et les mesures de chiffrement.
Le méta-signal
Au-delà des réponses individuelles, observez comment votre fournisseur réagit à ces questions.
Un fournisseur sérieux les apprécie — ça montre que vous prenez la sécurité au sérieux, et ça lui permet de démontrer sa valeur.
Un fournisseur fragile se braque, minimise, ou répond à côté — parce que ces questions exposent ce qu'il n'a pas fait.
La manière dont il répond est aussi importante que ce qu'il répond.
À vous de jouer
Envoyez ces 5 questions par email à votre fournisseur de chatbot IA. Aujourd'hui. Donnez-lui une semaine pour répondre.
Les réponses — ou leur absence — vous diront tout ce que vous devez savoir.
Diagnostic gratuit 30 min pour DPO
Besoin d'aide pour interpréter les réponses, ou pour auditer directement votre chatbot ? Je propose des diagnostics gratuits pour les DPO et responsables sécurité.
Contactez-moi