ARTICLE —  
9
 MIN

Former à l’IA sans peur : le kit RH pour développer et sécuriser les pratiques IA des managers & des équipes

Raphaël Maisonnier
Raphaël Maisonnier
CEO
Former à l’IA sans peur : le kit RH pour développer et sécuriser les pratiques IA des managers & des équipes

Pendant ce webinaire « Paroles d’Experts », Raphaël Maisonnier (Fasterclass) recevait Camille Morelon, Directrice culture data & IA chez Datasulting et référente BPI pour la conduite de diagnostics IA. Ensemble, ils ont déroulé un véritable mode d’emploi pour les RH et les directions : comment former à l’IA sans tomber ni dans la naïveté, ni dans la peur, tout en restant dans les clous du RGPD et de l’AI Act.

1. Former à l’IA : sortir des deux extrêmes

Camille constate deux postures opposées dans les entreprises :

  • Team “IA partout” : on se précipite sur tous les outils, « pleine balle », sans cadre, sans vision des risques.
  • Team “IA interdite” : on bloque tout, par peur de la confidentialité, du remplacement de l’humain, des enjeux juridiques.

Problème : interdire ne supprime pas l’IA, cela la déplace hors de votre contrôle.

« Ce n’est pas une bonne solution d’interdire. Vos collaborateurs utiliseront quand même ces outils sur leurs smartphones ou leurs ordinateurs personnels. C’est là que le risque de sécurité explose. » – Camille Morelon

C’est ce qu’on appelle le “shadow IA” : les usages se développent en dehors de tout cadre, avec un risque sérieux sur les données, l’image de l’entreprise et le respect des règles internes.

L’enjeu pour les RH et les directions : équiper, encadrer, sécuriser, plutôt qu’interdire.

2. Étape 1 – Sensibiliser : remettre tout le monde au même niveau

2.1. Expliquer ce qu’est (et ce que n’est pas) l’IA

Première brique incontournable : la sensibilisation.

« On commence par mettre tout le monde au même niveau : ce que sont ces outils, à quoi ils servent, ce qu’on peut faire et ce qu’on ne peut pas faire. » – Camille

Camille distingue deux grandes familles :

  • IA prédictive (connue depuis les années 50)
    • Recommandations sur Amazon, Netflix, moteurs de recherche, scoring, etc.
  • IA générative, qui agite aujourd’hui tous les débats
    • Génération de texte, d’images, de code, d’audio, de vidéo…

Point clé de sa pédagogie : ces outils ne “comprennent” rien.

« Ces outils ne comprennent pas ce qu’on leur dit. Ils font des calculs de probabilités sur ce qu’i a le plus de chances d’être la “bonne” réponse. » – Camille

On entraîne les modèles avec des millions de données (ex. images de chats). Quand vous posez une question, ils renvoient ce qui leur semble le plus probable. D’où :

  • La puissance pour synthétiser, reformuler, combiner.
  • Mais aussi les limites et les biais.

2.2. Parler des hallucinations (et les faire toucher du doigt)

Camille rappelle que les IA ne disent quasiment jamais « je ne sais pas » : elles préfèrent inventer une réponse plausible.

« Les IA renverront presque toujours une réponse, même si elle est fausse. Elles peuvent aller jusqu’à inventer des études, des chiffres, des citations. » – Raphaël

Des études récentes montrent qu’une réponse sur cinq à des questions d’actualité peut contenir des erreurs factuelles ou des citations déformées, ce qui illustre bien le risque d’hallucinations dans les usages professionnels.
Source : Le Monde.fr

Conséquences pédagogiques :

  • On apprend aux managers et aux équipes à vérifier les informations sensibles,
  • À croiser avec des sources fiables, notamment sur les sujets juridiques, médicaux, financiers, RH, etc.

2.3. Introduire le prompting comme compétence de base

Autre idée forte du webinaire : la qualité de la réponse dépend énormément de la qualité de la question (le prompt).

« Il y a l’art de poser les bonnes questions. Le prompting, c’est exactement ça. » – Camille

Deux méthodes ont été partagées :

  • CRAFT de Raphaël
    • Contexte
    • Rôle donné à l’IA
    • Action attendue
    • Format
    • Ton
  • RTTCOC de Datasulting
    • Rôle
    • Tâche
    • Technique (ou format, par exemple : image, présentation powerpoint, etc.)
    • Contexte/Cible (à qui est-ce destiné ?)
    • Objectif
    • Contraintes (par exemple : 12 slides maximum)

Exemple de bonne pratique :

« Je demande à l’IA : “Avant de commencer ta mission, quelles questions tu veux me poser pour bien faire ta mission ?” Puis je réponds à ces questions. Et une fois sa tâche réalisée, je lui demande de s’auto-évaluer par une note sur 100. En dessous de 95/100, je lui demande de recommencer. » – Raphaël

Cette logique de travail en plusieurs étapes (souvent appelée “chaîne de pensée”) améliore fortement la qualité, tout en réduisant les hallucinations.

2.4. Sensibiliser à l’impact environnemental

Camille insiste également sur la sobriété numérique :

« Une requête à une IA est 10 à 30 fois plus énergivore qu’une requête sur un moteur de recherche classique. Pour une recette de sauce tomate, Marmiton fera très bien le job. » – Camille

Message à faire passer aux équipes :

  • L’IA est un outil puissant,
  • Mais à réserver aux situations où elle apporte réellement de la valeur.

2.5. Sécurité, RGPD et AI Act : les nouveaux impératifs

La sensibilisation inclut obligatoirement :

  • Les données personnelles (RGPD),
  • Les données stratégiques de l’entreprise,
  • Les nouvelles obligations du règlement européen sur l’IA (AI Act).

Camille rappelle que :

  • Tous les outils ne sont pas conformes au RGPD dans leurs versions grand public ;
  • En entreprise, il faut privilégier des configurations et offres pensées pour la protection des données (ex. environnement Gemini for Workspace, Mistral, Copilot dans Microsoft 365, etc.).
    Plus d'infos avec ce questions/réponses de la CNIL.
  • L’article 4 de l’AI Act impose désormais aux entreprises de s’assurer que leurs équipes disposent d’un niveau suffisant de connaissance en IA, avec des actions de sensibilisation et de formation adaptées au rôle de chacun.
    Plus d'informations sur les obligations liées à l'AI Act dans cet article dastra.eu.
« Sensibiliser les collaborateurs, ce n’est plus seulement une bonne pratique, c’est une obligation réglementaire. » – Camille

3. Étape 2 – Identifier les bons cas d’usage, pas “faire de l’IA pour faire de l’IA”

Une fois les bases posées, on passe à la deuxième étape : clarifier les cas d’usage.

« On ne fait pas de l’IA pour faire de l’IA. On part des besoins, des problèmes à résoudre dans l’entreprise. » – Camille

Concrètement, Datasulting anime des ateliers avec des représentants de différents métiers :

  • On liste les “cailloux dans la chaussure” : tâches répétitives, chronophages, frustrantes,
  • Les tâches qu’on ne fait pas faute de temps ou de ressources,
  • Les nouvelles idées de services rendus aux clients internes/externes.

Les post-it s’accumulent, et on commence à voir émerger des patterns communs entre services.

Exemples concrets cités pendant le webinaire

  • Comptes rendus de réunion
    • Outils type Upmeet, Noota, ou Copilot pour Teams : transcription, synthèse, plan d’actions.
    • Gains : temps, homogénéité des comptes rendus, traçabilité.
  • Analyse de documents volumineux (appels d’offres, contrats, études)
    • Outils d’analyse documentaire comme NotebookLM : recherche dans des documents longs, synthèses, extraits ciblés.
  • Génération de présentations
    • Outils comme Gamma ou Copilot pour construire des trames de slides à partir d’un texte ou d’un plan.
  • Automatisation de la veille
    • Programmation d’outils d’automatisation (Make, Zapier, Power Automate…) pour :
      • collecter les articles de sources “de confiance”,
      • générer un résumé,
      • mettre en forme,
      • diffuser automatiquement par e-mail ou dans Teams.
  • Support client / SAV par e-mail
    • Analyse automatique des messages entrants, proposition de réponse rédigée, contrôlée et validée ensuite par un humain.
« On ne va pas jusqu’à l’envoi automatique : on garde un humain qui lit, corrige, améliore et envoie. L’IA prépare, l’humain décide. » – Camille

4. Étape 3 – Passer à l’opérationnel (sans perdre la main)

Une fois les cas d’usage identifiés, l’idée est de prioriser les quick wins :

  • Bénéfice clair (temps, qualité, satisfaction client interne),
  • Mise en œuvre réaliste (outils sur étagère, peu de développement sur mesure).

Deux leviers sont alors possibles :

  1. Former les équipes sur les outils retenus (managers, fonctions support, RH, métiers).
  2. Externaliser certaines réalisations (par exemple, l’automatisation d’une veille ou la mise en place d’un premier “copilote” pour le service client).
« L’IA doit nous permettre de nous libérer des tâches répétitives pour qu’on puisse se concentrer sur des sujets à plus forte valeur ajoutée. » – Camille

Raphaël illustre ce principe avec un cas très concret : les récap’ de webinaires Fasterclass eux-mêmes sont préparés avec l’IA (transcript + prompt bien ficelé), puis relecture et validation humaine avant mise en ligne.

5. Étape 4 – Installer une gouvernance IA claire (charte, rôles, outils)

Dernier pilier : la gouvernance. Sans elle, les usages restent ponctuels et le “shadow IA” prospère.

5.1. Clarifier la position de la direction

Camille insiste sur la nécessité d’un message clair :

  • Pourquoi l’entreprise investit sur l’IA,
  • Quels usages sont encouragés,
  • Quels risques sont pris au sérieux (données, éthique, social),
  • Comment les collaborateurs seront accompagnés (acculturation, formation, support).
« Les collaborateurs ont besoin de savoir ce qu’on fait avec l’IA et où on va. » – Camille

5.2. Construire une charte IA vivante

La charte IA est un outil clé de cette gouvernance :

  • Elle pose les règles du jeu :
    • outils autorisés / interdits,
    • types de données qu’on peut ou non utiliser,
    • bonnes pratiques de vérification,
    • rappel que l’humain reste décisionnaire.
  • Elle doit refléter les valeurs de l’entreprise (respect, transparence, confiance, éthique).

Camille explique aussi comment l’IA peut aider à… écrire la charte IA :

« On peut utiliser Perplexity pour aller chercher des exemples de chartes, puis NotebookLM pour analyser ces documents et en extraire les grandes catégories. Ensuite, on remet de l’humain avec un atelier mêlant juridique, DSI et métiers. » – Camille

Cette approche est cohérente avec les recommandations générales sur la sensibilisation à l’IA en entreprise : expliquer les outils utilisés, leurs bénéfices, leurs limites et les bonnes pratiques, dans un langage accessible à tous.

5.3. Désigner des référents et des ambassadeurs IA

Pour que la charte ne reste pas un PDF oublié, Camille recommande de s’appuyer sur des profils déjà moteurs :

« Généralement, on les repère vite : ce sont ceux qui ont une appétence forte pour ces outils, qui les utilisent déjà à titre personnel et ont commencé à les transposer au travail. » – Camille

Rôles possibles :

  • Référents IA par métier ou par département,
  • Ambassadeurs chargés de relayer les bonnes pratiques,
  • Points de contact pour les questions sécurité / outils / cas d’usage.

5.4. Encadrer le “shadow IA” avec des espaces de test

Dernier point : il s’agit moins de “traquer” le shadow IA que de le canaliser.

« On travaille avec des adultes responsables. Si on les sensibilise bien aux risques, il faut aussi leur faire confiance et leur offrir des espaces de test. » – Camille

Proposition opérationnelle :

  • Créer des “laboratoires IA” ou “bulles d’expérimentation”,
  • Autoriser les tests dans un environnement encadré,
  • Documenter les usages intéressants et les transformer ensuite en cas d’usage officiels.

Conclusion – Un kit d’action pour les RH qui veulent avancer vite et bien

À l’issue du webinaire, Raphaël et Camille proposent un kit d’action IA à télécharger qui reprend les grandes étapes :

  1. Sensibiliser les collaborateurs (bases, limites, risques, RGPD, AI Act).
  2. Faire émerger les cas d’usage avec les métiers.
  3. Passer à l’opérationnel via des quick wins formés ou accompagnés.
  4. Structurer la gouvernance (charte IA, outils, ambassadeurs, socialisation).
« L’idée, ce n’est pas de faire peur, ni de foncer tête baissée, mais de construire une culture de l’IA saine, utile et sécurisée. » – Raphaël

FAQ

1. Pourquoi former ses collaborateurs à l’IA est devenu incontournable ?

Parce que l’IA est déjà partout dans les métiers (recrutement, RH, marketing, finance, opérations) et que :

  • elle peut améliorer la productivité et la rentabilité,
  • mais aussi exposer l’entreprise à des risques (juridiques, réputationnels, sociaux) si elle est mal utilisée.

Des analyses montrent que l’IA peut significativement améliorer la rentabilité des entreprises qui l’adoptent de manière structurée, ce qui renforce l’idée qu’une montée en compétences est un enjeu stratégique, pas un gadget. France Travail+1

2. Que dit l’AI Act sur l’obligation de former les salariés à l’IA ?

L’article 4 du règlement européen sur l’IA (AI Act) impose aux entreprises qui déploient ou développent des systèmes d’IA de s’assurer que leurs équipes :

  • disposent d’un niveau suffisant de connaissances en IA,
  • sont formées en fonction de leur rôle, du type d’IA utilisé et des risques associés,
  • bénéficient d’actions de sensibilisation et de formation périodiques. dastra.eu

En clair : si vos équipes utilisent l’IA, vous devez démontrer que vous les avez formées.

3. ChatGPT est-il conforme au RGPD pour un usage en entreprise ?

Dans sa version grand public (gratuite ou licence individuelle), l’utilisation de ChatGPT soulève des questions de conformité au RGPD :

  • localisation des données,
  • conditions de réutilisation pour l’entraînement des modèles,
  • possibilités effectives d’opposition, etc. CNIL+2CamoCopy

Pour un usage professionnel européen :

  • privilégiez des offres entreprises (avec DPA, engagements contractuels, paramétrage spécifique),
  • ou des solutions explicitement positionnées sur la protection des données (ex. Mistral, environnements Gemini for Workspace, Copilot sous contrat Microsoft 365, etc.),
  • et, dans tous les cas, faites valider par votre DPO / juridique.

4. Quels sont les principaux risques de l’IA générative pour une entreprise (RH, managers, équipes) ?

Les risques principaux sont :

  • Erreurs factuelles et hallucinations (mauvaise décision, information erronée communiquée à des clients ou collaborateurs), Le Monde.fr
  • Fuite ou réutilisation de données sensibles si elles sont injectées dans des outils non sécurisés, escapegameenligne.com
  • Non-conformité RGPD (absence de base légale, défaut d’information, droit d’opposition ignoré), CNIL
  • Risque social (peur de la substitution, méfiance, “shadow IA”), Le Monde.fr
  • Impact environnemental (consommation d’énergie et de ressources).

La formation doit aborder ces 5 dimensions, pas seulement “comment écrire un bon prompt”.

5. Comment éviter le “shadow IA” (shadow GPT) dans mon entreprise ?

Vous ne pouvez pas l’éviter à 100 %, mais vous pouvez fortement le réduire : Le Monde.fr

  1. Communiquer clairement la position de la direction vis-à-vis de l’IA.
  2. Mettre en place une charte IA lisible, expliquée et accessible.
  3. Autoriser des outils encadrés (solutions validées, avec comptes entreprise).
  4. Créer des espaces d’expérimentation (laboratoires IA, POC) pour canaliser les envies de test.
  5. Sensibiliser aux risques concrets (données, RGPD, image, sécurité).

Plus vous interdisez sans expliquer, plus vous alimentez le shadow IA.

6. Comment construire une charte IA efficace pour mon entreprise ?

Une bonne charte IA :

  • est co-construite (juridique, DSI, RH, métiers, représentants du personnel),
  • liste les outils autorisés, les usages recommandés et ceux qui sont proscrits,
  • précise les règles de traitement des données (quelles données jamais injecter dans des IA grand public, par exemple),
  • rappelle les droits et obligations des collaborateurs (RGPD, AI Act, droit d’alerte, etc.),
  • traduit les valeurs de l’entreprise (respect des personnes, non-discrimination, transparence). Leto

7. Quels outils IA recommander en priorité pour les managers et les équipes ?

Tout dépend de votre environnement, mais on retrouve souvent :

  • Assistants conversationnels (Mistral, Gemini, ChatGPT, Copilot…) pour rédaction, synthèse, traduction. stemapartners.com
  • Outils de productivité intégrés (Gemini for Workspace, Copilot pour Microsoft 365) pour : emails, comptes rendus, présentations, analyses. Google Workspace
  • Outils spécialisés :
    • Analyse documentaire (ex. NotebookLM),
    • Génération de présentations (Gamma…),
    • Outils d’automatisation (Make, Zapier, Power Automate…).

La priorité RH : aligner le choix d’outils sur la stratégie de données, le niveau de risque, et le niveau d’accompagnement possible (support, formation, gouvernance).

8. Quels contenus intégrer dans une formation IA pour managers ?

Une formation IA “utile” pour des managers devrait couvrir : francenum.gouv.fr

  1. Bases : IA prédictive vs générative, comment ça marche, limites et biais.
  2. Risques & conformité : RGPD, AI Act, données sensibles, confidentialité.
  3. Cas d’usage métiers : exemples concrets dans le contexte de l’entreprise.
  4. Prompting avancé : méthodes (CRAFT / RTTCOC), travail en étapes, vérification.
  5. Gouvernance : charte IA, outils autorisés, points de contact, rôle du manager.
  6. Posture managériale : rassurer, accompagner, donner l’exemple d’un usage responsable.

9. Comment mesurer l’impact d’un programme de formation à l’IA ?

Quelques indicateurs possibles :

  • Quantitatifs
    • Nombre de collaborateurs formés / acculturés,
    • Taux d’adoption d’outils validés (vs usages “shadow”),
    • Gains de temps déclarés sur certains processus,
    • Nombre de cas d’usage déployés.
  • Qualitatifs
    • Perception de l’IA (avant/après) : peur, confiance, utilité,
    • Sentiment de maîtrise / compétence,
    • Qualité perçue des livrables (comptes rendus, présentations, réponses clients).
  • Conformité
    • Incidents liés à l’IA (RGPD, sécurité, réputation),
    • Suivi de la mise en œuvre des obligations AI Act. PwC France

10. Comment intégrer la dimension éthique dans la formation à l’IA ?

L’éthique ne doit pas être un “chapitre de fin” mais un fil rouge :

  • Biais, discrimination potentielle, impact sur l’égalité professionnelle,
  • Transparence vis-à-vis des collaborateurs et des candidats,
  • Place de l’humain dans la décision (l’IA comme aide, pas comme juge),
  • Dialogue social : information et consultation des représentants du personnel. CCI Française

Un bon réflexe : systématiser la question « Qui est impacté ? » et « Comment l’IA pourrait-elle nuire si l’on se trompe ? » avant de déployer un cas d’usage.