Un chatbot interne d’entreprise n’a rien à voir avec un chatbot de support client. Il ne sert pas à rassurer un prospect ou désengorger un service client. Il sert vos collaborateurs, sur vos données, dans vos outils. C’est un assistant qui répond à la place du service IT, du RH ou de la documentation interne, 24h/24, en quelques secondes.

Ce guide couvre tout ce qu’un dirigeant ou un CTO doit savoir avant de lancer un projet : cas d’usage qui marchent, stack technique réaliste (LLM + RAG), budget, délais, contraintes RGPD et pièges à éviter.

Chatbot interne ou chatbot externe : ce qui change vraiment

Un chatbot externe (support client, pré-vente) parle à des inconnus. Il doit être ultra-cadré, refuser les sujets hors-scope, gérer des intentions floues. Les éditeurs SaaS font ça très bien.

Un chatbot interne d’entreprise parle à vos équipes. Le contexte est différent :

  • Les utilisateurs sont identifiés (SSO, AD, Okta), donc on peut servir des réponses personnalisées
  • Les sources de données sont internes et sensibles (Confluence, SharePoint, ERP, fiches RH, CRM)
  • L’objectif n’est pas la conversion, c’est le temps gagné sur des tâches répétitives
  • Les volumes sont prévisibles : 50 à 500 collaborateurs, pas 50 000 visiteurs anonymes

Conséquence directe : les outils SaaS de chatbot grand public sont rarement adaptés. On part sur du chatbot sur mesure entreprise, branché sur vos sources, hébergé selon vos contraintes. Pour aller plus loin sur ce choix, voir notre comparatif sur-mesure vs SaaS.

Le marché du chatbot interne en 2026

Quelques chiffres pour situer la maturité du marché — à prendre avec les précautions d’usage habituelles (méthodologies d’enquête, biais déclaratifs, périmètres parfois flous).

  • Forrester estime le marché des AI agents entreprise à environ 50 Md$ d’ici 2030, dont une part significative dédiée aux assistants internes (Forrester Wave, 2025).
  • Gartner indique que 60 % des entreprises de plus de 500 collaborateurs auront déployé au moins un assistant IA interne d’ici fin 2026, contre moins de 15 % en 2024 (Gartner Predicts, 2025).
  • McKinsey documente un gain de temps moyen de 20 à 45 % sur les tâches répétitives à forte composante documentaire (recherche d’info, rédaction de réponses standardisées) dans son rapport “The State of AI in 2025”.
  • Côté France, le baromètre Numeum 2026 estime que 38 % des ETI françaises ont un projet d’assistant interne en 2026, mais seulement 12 % sont en production — l’écart entre POC et déploiement reste l’enjeu numéro un.

À retenir : le marché est jeune, les chiffres macro sont approximatifs, mais la trajectoire est claire. Les entreprises qui démarrent en 2026 ne sont plus en avance, elles sont dans la moyenne.

5 cas d’usage concrets de chatbot interne

Voici ce qu’on voit fonctionner réellement chez nos clients PME et ETI.

1. Chatbot support interne IT (niveau 1)

Le service IT croule sous les tickets répétitifs : mot de passe perdu, accès VPN, partage de fichier, configuration imprimante. Un chatbot support interne branché sur la base de connaissances IT et sur l’AD résout 30 à 50 % de ces demandes sans humain.

Bonus : il peut déclencher des actions (reset mot de passe, ouverture de ticket Jira si l’IA ne sait pas répondre).

2. Onboarding RH automatisé

Un nouveau collaborateur arrive avec 80 questions : où télécharger ma fiche de paie, quels jours de RTT cette année, comment poser des congés, qui contacter pour ma mutuelle. Un chatbot RH lit le livret d’accueil, la convention collective et les procédures internes, et répond instantanément.

Économie typique : 2 à 4 heures par mois récupérées par le service RH, lissées sur l’année.

3. Recherche dans la documentation métier

Sur un Confluence ou un SharePoint qui contient 10 000 pages, retrouver l’info pertinente prend 15 minutes. Un chatbot avec moteur RAG lit toute la doc, la vectorise, et répond en citant les sources exactes.

Cas typique : cabinet de conseil, bureau d’études, industrie réglementée. Le ROI est immédiat sur le temps de recherche.

4. Assistant CRM pour les commerciaux

Avant un rendez-vous, un commercial pose une question en langage naturel : “Qu’est-ce qu’on a vendu à ce client en 2025, quels sont les derniers échanges, quelles factures restent impayées ?”. Le chatbot interroge le CRM, l’ERP et les emails, et synthétise.

Pas besoin d’apprendre à filtrer 12 colonnes Salesforce. On parle, on obtient.

5. FAQ technique produit pour les équipes terrain

Pour un fabricant ou un installateur, les techniciens sur le terrain posent toujours les mêmes questions de spec produit. Un chatbot mobile qui lit les fiches techniques, les notices et les retours SAV répond en 5 secondes au lieu de 5 appels téléphoniques.

Comment fonctionne un chatbot interne d’entreprise ?

Techniquement, un chatbot sur mesure moderne combine deux briques.

Le LLM (Large Language Model)

C’est le moteur conversationnel : il comprend la question et formule une réponse en langage naturel. Trois familles utilisables sérieusement en 2026 :

  • OpenAI (GPT-4.x, GPT-5) : le plus polyvalent, écosystème mature, mais hébergé US
  • Anthropic Claude : excellent sur le raisonnement long et la fidélité aux sources
  • Mistral (Large, Codestral) : alternative européenne, hébergeable en cloud souverain ou on-premise

Le choix dépend du compromis qualité / coût / souveraineté. Pour des données très sensibles (santé, défense, finance régulée), on partira sur Mistral hébergé en France ou un modèle open-source (Llama 3, Qwen) sur GPU dédié.

Le RAG (Retrieval Augmented Generation)

Un LLM seul ne connaît pas vos données internes. Le RAG corrige ça :

  1. On indexe vos documents (PDF, Confluence, SharePoint, base SQL) dans une base vectorielle
  2. À chaque question, on récupère les 3 à 10 passages les plus pertinents
  3. On les injecte dans le prompt envoyé au LLM, qui répond en s’appuyant dessus

Résultat : des réponses précises, sourcées, à jour. Sans RAG, un LLM hallucine — il invente des chiffres et des procédures qui n’existent pas.

L’orchestration

Autour de ces deux briques, il faut : authentification (SSO), gestion des permissions par document, logs d’audit, interface utilisateur (Teams, Slack, web), et un système d’évaluation continue pour mesurer la qualité des réponses.

Quel est le coût d’un chatbot interne ?

Ordres de grandeur réalistes pour un projet sérieux en 2026, hors poudre aux yeux.

MVP fonctionnel : 12 000 à 25 000 €

Ce budget couvre :

  • Cadrage et choix du périmètre (1 à 2 cas d’usage)
  • Indexation des sources de données (jusqu’à 3 sources)
  • Mise en place du LLM + RAG
  • Interface utilisateur (intégration Teams/Slack ou web minimaliste)
  • Tests et ajustements sur 50 à 100 questions réelles

Coûts récurrents : 1 000 à 3 000 € / mois

À ne pas négliger :

  • Inférence LLM (consommation API OpenAI/Claude/Mistral) : 200 à 1 500 € / mois selon le volume
  • Hébergement base vectorielle + orchestration : 100 à 400 € / mois
  • Maintenance, suivi qualité, ajout de sources, ajustement des prompts : 700 à 1 500 € / mois en retainer

Au-delà du MVP, comptez 30 000 à 80 000 € pour une v2 multi-cas d’usage avec actions (créer un ticket, réserver une salle, valider un congé).

Combien ça coûte vraiment ? Comparatif chiffré

Au-delà du sur-mesure, plusieurs alternatives existent. Voici un comparatif honnête des grandes options en 2026, pour une entreprise de 100 à 500 collaborateurs.

SolutionSetup initialCoût mensuel récurrent
ChatGPT Team / Enterprise (OpenAI direct)0 € (config simple) à 5 000 € (intégration sources)25 à 60 $ / utilisateur / mois (soit 2 500 à 30 000 $/mois)
Microsoft Copilot for M3652 000 à 8 000 € (déploiement, gouvernance)30 $ / utilisateur / mois (soit 3 000 à 15 000 $/mois)
SaaS dédié (Intercom Fin, Drift, Ada, Glean)5 000 à 20 000 € (intégration sources, training)1 500 à 8 000 € / mois selon volume de requêtes
Sur mesure (estimation NothingElse.app)12 000 à 25 000 € (MVP) puis 30 000 à 80 000 € (v2)1 000 à 3 000 € / mois (LLM + hébergement + maintenance)

Quand le SaaS gagne

Si vous êtes déjà 100 % Microsoft 365 et que vos sources de connaissance vivent dans SharePoint, OneDrive et Teams, Copilot M365 est souvent le choix le plus pragmatique. Pas de projet, juste un déploiement. Idem pour les startups qui veulent tester un assistant général sans cas d’usage métier précis : ChatGPT Team se met en place en une journée.

Quand le sur-mesure gagne

Le sur-mesure devient rentable quand :

  • Vous avez 3+ sources hétérogènes (Confluence + ERP custom + base SQL + emails) qu’aucun SaaS ne sait connecter proprement
  • Vos données sont sensibles et exigent un hébergement souverain (santé, finance, défense)
  • Vous voulez des actions métier (créer un ticket Jira, valider un congé dans votre SIRH custom, écrire dans votre CRM) — pas juste de la conversation
  • Vous avez plus de 200 utilisateurs actifs : à 30 $/user/mois sur Copilot, vous payez 6 000 $/mois en SaaS, soit 72 000 $/an. Un sur-mesure avec coûts récurrents de 2 000 €/mois s’amortit en 12 à 18 mois sur ce volume.

Le break-even ROI du sur-mesure se situe généralement autour de 150-250 utilisateurs actifs ou 3+ cas d’usage métier différenciés. En dessous, un SaaS ou Copilot suffit. Pour creuser, voir nos cas concrets de ROI sur l’IA en entreprise.

Combien de temps pour développer un chatbot interne ?

Sur un MVP cadré, le délai réaliste est de 8 à 12 semaines, en deux phases.

Semaines 1-3 : cadrage et préparation

  • Atelier cas d’usage et critères de succès
  • Inventaire et nettoyage des sources de données
  • Choix du modèle, de l’hébergement, de l’interface
  • Validation RGPD et sécurité

Semaines 4-12 : développement, intégration, recette

  • Indexation et tuning du RAG
  • Développement de l’interface
  • Connexions SSO et permissions
  • Recette utilisateur sur un panel pilote
  • Mise en production progressive

Vouloir aller plus vite (4 semaines) est possible mais produit généralement un POC qui ne tient pas en production. La majorité du temps n’est pas dans le code, elle est dans la qualité des données sources et le tuning des prompts.

Cloud souverain ou cloud public : RGPD et données sensibles

Trois scénarios selon la sensibilité de vos données.

Cloud public (OpenAI, Anthropic via API)

Acceptable pour la plupart des cas d’usage internes : doc produit, FAQ RH générique, support IT non sensible. OpenAI propose des engagements contractuels (pas d’entraînement sur vos données, rétention zéro). Reste l’enjeu d’hébergement aux US.

Cloud souverain européen (Scaleway, OVHcloud, Outscale)

Recommandé dès qu’il y a des données personnelles sensibles, des données clients, ou des contraintes sectorielles (santé, finance, secteur public). On utilise alors Mistral hébergé en France ou un modèle open-source sur GPU dédié.

On-premise (vos serveurs ou un datacenter dédié)

Pour les cas extrêmes : défense, OIV, données médicales. Coûts d’infra plus élevés (10 000 à 50 000 € de matériel + opérations), mais souveraineté totale.

Dans tous les cas, un chatbot interne nécessite : DPIA (analyse d’impact RGPD), inventaire des données traitées, gestion des durées de rétention, droit à l’effacement.

Pièges à éviter sur un projet de chatbot sur mesure

Ce qu’on a vu rater, plusieurs fois, sur des projets internes.

1. Ne pas nettoyer les sources avant d’indexer

Garbage in, garbage out. Si votre Confluence contient 30 % de pages obsolètes ou contradictoires, le chatbot répondra mal. Étape 1 : audit et nettoyage des sources, avant tout code.

2. Sous-estimer le prompt engineering

Un prompt mal designé produit des réponses verbeuses, hors-sujet, ou faussement confiantes. Comptez 10 à 20 itérations sur le prompt système avant d’atteindre la qualité de production.

3. Indexation grossière → RAG inefficace

Si vous découpez vos documents en blocs de 5 000 caractères, le retrieval est mauvais. Si vous découpez en blocs de 100 caractères, vous perdez le contexte. Le chunking et l’embedding sont les leviers majeurs de qualité.

4. Ne pas mesurer la qualité en continu

Sans système d’évaluation (jeu de questions de référence, scoring, feedback utilisateur), vous ne savez pas si le chatbot s’améliore ou se dégrade au fil des mises à jour de modèles. Mettez en place une évaluation dès la v1.

5. Vouloir tout faire d’un coup

Un chatbot qui veut couvrir IT + RH + commercial + technique en v1 n’en couvre aucun correctement. On démarre avec un seul cas d’usage, on le réussit, puis on étend.

6. Ignorer la conduite du changement

Un chatbot mal présenté aux équipes est perçu comme “encore un outil”. Communication, démo, ambassadeurs internes : la techno ne suffit pas, il faut faire adopter.

3 cas d’usage qui marchent vraiment (retour terrain)

Au-delà des cas d’usage théoriques, voici trois déploiements qu’on observe systématiquement réussir, avec les chiffres réels constatés.

Cas 1 — Support N1 IT (helpdesk interne)

Contexte. Une PME industrielle de 220 salariés, service IT de 3 personnes, ~400 tickets/mois dont 60 % sur des sujets répétitifs : reset de mot de passe AD, configuration VPN, accès partagés réseau, problèmes d’imprimante.

Implémentation. Chatbot branché sur la base de connaissances IT (Confluence interne, ~250 articles), connecté à l’AD pour identifier l’utilisateur, capable de déclencher un reset MDP via API et d’ouvrir un ticket Jira si l’IA n’est pas confiante. Stack : GPT-4 + RAG sur Pinecone, interface Microsoft Teams. Délai : 9 semaines, budget 18 000 €.

Résultat mesuré (6 mois post-prod). 42 % des tickets N1 résolus sans intervention humaine. Temps moyen de résolution passé de 4h20 à 2 minutes pour ces cas. ~28 heures/mois libérées côté IT, réinvesties sur des projets de fond. Satisfaction utilisateur (NPS interne) à +47.

Cas 2 — Onboarding RH

Contexte. Cabinet de conseil de 140 consultants, ~25 nouveaux arrivants par an. Le service RH (2 personnes) recevait en moyenne 30 questions par nouvel arrivant sur les 2 premières semaines : congés, mutuelle, télétravail, frais, outils.

Implémentation. Chatbot RH lisant le livret d’accueil, la convention collective Syntec, les procédures internes et la FAQ Notion. Disponible dans Slack dès le J-1 du salarié. Pas d’actions, juste de la réponse documentaire avec citations. Délai : 6 semaines, budget 11 000 €.

Résultat mesuré. ~70 % des questions standard absorbées par le chatbot. Le service RH ne reçoit plus que les vraies questions singulières. Économie : ~12 heures/mois côté RH, et surtout meilleure expérience d’onboarding (les nouveaux arrivants n’attendent plus 24h pour savoir comment poser un congé).

Cas 3 — Sales enablement

Contexte. ETI distribution B2B, 35 commerciaux terrain, catalogue produits de 4 200 références, prix négociés par segment client, fiches techniques dispersées sur SharePoint et un PIM legacy.

Implémentation. Chatbot mobile interrogeable en langage naturel : “Stock produit X chez l’entrepôt Lyon ?”, “Prix net pour le client Y sur la gamme Z ?”, “Dernière fiche technique du modèle ABC ?”. Connexion à l’ERP (Sage), au PIM et au CRM. Stack Mistral Large hébergé sur Scaleway pour la souveraineté. Délai : 14 semaines, budget 42 000 €.

Résultat mesuré (4 mois post-prod). Temps moyen de recherche d’info produit divisé par 6 (de 7 minutes à ~1 minute). +18 % de rendez-vous commerciaux préparés avec la fiche client à jour (mesure interne via CRM). Les commerciaux qui consultent le chatbot avant rendez-vous closent 11 % de mieux que les autres. Voir d’autres cas clients.

RAG vs fine-tuning : quel choix technique ?

C’est la question technique qui revient à chaque projet. Réponse courte : dans 90 % des cas, RAG suffit. Voici pourquoi.

Le RAG, par défaut

Le RAG (Retrieval Augmented Generation) consiste à donner au LLM accès à vos documents au moment de la question, sans modifier le modèle lui-même. Avantages :

  • Données toujours à jour : ré-indexer un document prend quelques secondes, pas besoin de ré-entraîner
  • Coût raisonnable : indexation initiale + stockage vectoriel, pas de GPU mobilisé pendant des jours
  • Traçabilité : chaque réponse cite les sources, conformité RGPD facilitée
  • Réversibilité : changer de LLM (passer de GPT-4 à Claude ou Mistral) ne casse pas le système

C’est la stack par défaut pour 9 projets sur 10.

Le fine-tuning, quand il est justifié

Le fine-tuning consiste à ré-entraîner un modèle sur vos données pour qu’il intègre votre style, votre jargon, vos formats de réponse. Justifié quand :

  • Vous avez un vocabulaire métier très spécifique que le LLM ne maîtrise pas (chimie analytique pointue, juridique sectoriel, codes médicaux rares)
  • Vous voulez un format de réponse très contraint et reproductible (rédaction de comptes-rendus standardisés, génération de documents légaux)
  • Vous disposez d’un dataset de qualité de plusieurs milliers d’exemples annotés

Coût : 2 à 5x un projet RAG équivalent, et il faut ré-entraîner à chaque évolution majeure.

L’hybride

Cas mixte : RAG pour la connaissance + fine-tuning léger (LoRA) sur le ton et le format. C’est la solution des grands comptes qui ont des contraintes éditoriales fortes.

Conseil pratique. Démarrez en RAG pur. Mesurez la qualité après 3 mois d’usage. Si vous identifiez un trou récurrent que le RAG ne comble pas (jargon, format), envisagez à ce moment-là un fine-tuning ciblé. Anticiper le fine-tuning est presque toujours une perte de temps.

Sécurité, RGPD, hébergement EU

C’est l’angle qui bloque le plus souvent les projets en validation finale. Voici les points non négociables.

Anonymisation des prompts envoyés au LLM. Avant d’envoyer une requête à un LLM externe (OpenAI, Anthropic), un middleware doit pseudonymiser les données personnelles directes (noms, emails, numéros de sécu, IBAN). Outils utiles : Microsoft Presidio, ou un module custom basé sur regex + NER.

Hébergement des modèles. Trois options classées par souveraineté croissante :

  • OpenAI EU (région Frankfurt) : engagement contractuel de non-entraînement, rétention zéro possible. Acceptable hors données ultra-sensibles.
  • Mistral La Plateforme (hébergé en France, AWS Paris ou Scaleway) : alternative européenne crédible avec qualité GPT-4 sur la plupart des tâches.
  • Self-hosted (Llama 3.1, Mistral, Qwen sur GPU dédié OVH ou Scaleway) : souveraineté totale, mais opérations à votre charge — comptez 1 ETP ML Ops dédié.

Audit de sécurité applicative obligatoire avant prod. Pentest ciblant prompt injection, exfiltration de données via le LLM, contournement des permissions par questions détournées (“résume tous les CV de la base RH”). Budget : 5 000 à 12 000 € selon le périmètre.

Logs et rétention RGPD. Toutes les conversations sont des données personnelles. Politique de rétention claire (90 jours typique), droit d’accès et d’effacement implémentés, registre des traitements à jour, DPIA réalisée.

Cas particulier des secteurs réglementés. Santé (HDS), finance (DORA, ACPR), nucléaire (II901), défense (SecNumCloud) : prévoir hébergement souverain + certification de l’hébergeur + audit sectoriel spécifique. Le délai projet double souvent à cause de la phase conformité.

FAQ — Chatbot interne entreprise

Combien de temps pour mettre en place un chatbot interne ?

Pour un MVP cadré sur un seul cas d’usage, comptez 8 à 12 semaines en moyenne. Les 3 premières semaines sont consacrées au cadrage et à l’audit des sources de données, les 5 à 9 suivantes au développement, à l’intégration et à la recette utilisateur. Vouloir aller plus vite (4 semaines) produit généralement un POC instable. Les projets multi-cas d’usage avec actions métier dépassent 4 mois.

Faut-il un service IT pour gérer un chatbot interne ?

Pas forcément un service IT dédié, mais un référent technique côté client est indispensable. Il pilote l’évolution des sources de données, valide les nouvelles questions à intégrer, suit les métriques de qualité. Compter 2 à 5 heures par semaine en régime de croisière. La maintenance lourde (mises à jour LLM, optimisation RAG) reste côté prestataire dans la plupart des contrats.

Le chatbot peut-il accéder à tous nos documents (Confluence, SharePoint) ?

Oui, mais avec gestion fine des permissions. Chaque document indexé conserve ses ACL d’origine : un utilisateur ne voit dans les réponses du chatbot que ce qu’il aurait pu lire directement. Les connecteurs Confluence, SharePoint, Google Drive, Notion, Slack, Teams sont matures. Pour les sources custom (ERP, base SQL), un connecteur dédié est à développer (1 à 3 jours par source).

Quelle différence entre Copilot et un chatbot interne sur mesure ?

Copilot M365 est excellent pour la productivité individuelle dans l’écosystème Microsoft (résumer un email, générer un brouillon dans Word). Un chatbot interne sur mesure est pensé pour des cas d’usage métier transverses : il connecte vos sources hétérogènes (ERP custom, base de connaissances métier, données clients), exécute des actions, et coûte généralement moins cher au-delà de 200 utilisateurs. Les deux sont complémentaires, pas concurrents.

Le chatbot va-t-il halluciner sur nos données métier ?

Risque réel mais maîtrisable. Avec un RAG bien tuné (chunking optimisé, top-k pertinent, prompt système strict), le taux d’hallucination passe sous les 3 % sur des données structurées. Les bonnes pratiques : forcer la citation des sources dans chaque réponse, autoriser le “je ne sais pas”, mesurer la qualité en continu sur un jeu de questions de référence. Sans ces garde-fous, attendez-vous à 10-20 % d’hallucinations.

Combien de collaborateurs minimum pour que ce soit rentable ?

Pour un sur-mesure, le seuil de rentabilité se situe vers 80 à 150 utilisateurs actifs sur un cas d’usage à fort volume. En dessous, un SaaS comme Copilot M365 ou ChatGPT Team est plus économique. La métrique qui compte n’est pas le nombre de salariés mais le volume de requêtes/mois : à partir de 3 000-5 000 requêtes mensuelles, le sur-mesure devient compétitif sur 18 mois.

Peut-on héberger le LLM en France pour la conformité ?

Oui, plusieurs options matures en 2026. Mistral La Plateforme propose ses modèles (Mistral Large, Codestral) hébergés sur infrastructure européenne. Scaleway et OVHcloud proposent des GPU dédiés pour héberger Llama 3.1, Qwen ou Mistral en self-managed. OpenAI offre une région Frankfurt avec engagement de résidence des données. Coût additionnel : 15 à 40 % vs cloud US, qualité quasi-équivalente sur la plupart des tâches.

Quel ROI attendre la première année ?

Sur un cas d’usage bien choisi (support IT N1, onboarding RH, recherche documentaire), on observe un ROI mesurable entre 6 et 12 mois. Les économies viennent du temps libéré (équivalent ETP partiel) et de la productivité accrue des utilisateurs finaux. Sur un projet à 25 000 € de setup + 24 000 €/an de récurrent, atteindre 50 000 € d’économies annuelles est réaliste si le cas d’usage absorbe ≥ 30 % d’une activité répétitive existante. Pour discuter de votre projet, prévoyez vos volumes actuels.

Par où commencer

Si vous envisagez un chatbot interne, voici la séquence pragmatique :

  1. Identifier un cas d’usage à fort volume (IT N1, doc métier, onboarding RH) où vous mesurez déjà du temps perdu
  2. Auditer la qualité des sources de données disponibles sur ce périmètre
  3. Cadrer un MVP sur ce seul cas d’usage, avec critères de succès chiffrés (taux de résolution autonome, satisfaction utilisateur)
  4. Choisir l’hébergement selon la sensibilité des données
  5. Lancer le projet avec un panel pilote avant déploiement large

Nous accompagnons des PME et ETI lyonnaises sur ce type de projet, du cadrage à la mise en production — voir nos services d’intégration IA pour le détail de notre approche. Si vous voulez challenger votre cas d’usage et obtenir un chiffrage réaliste, réservez un échange — 30 minutes pour savoir si ça vaut le coup pour vous.