Pendant ce webinaire « Paroles d’Experts », Raphaël Maisonnier (Fasterclass) recevait Camille Morelon, Directrice culture data & IA chez Datasulting et référente BPI pour la conduite de diagnostics IA. Ensemble, ils ont déroulé un véritable mode d’emploi pour les RH et les directions : comment former à l’IA sans tomber ni dans la naïveté, ni dans la peur, tout en restant dans les clous du RGPD et de l’AI Act.
1. Former à l’IA : sortir des deux extrêmes
Camille constate deux postures opposées dans les entreprises :
- Team “IA partout” : on se précipite sur tous les outils, « pleine balle », sans cadre, sans vision des risques.
- Team “IA interdite” : on bloque tout, par peur de la confidentialité, du remplacement de l’humain, des enjeux juridiques.
Problème : interdire ne supprime pas l’IA, cela la déplace hors de votre contrôle.
« Ce n’est pas une bonne solution d’interdire. Vos collaborateurs utiliseront quand même ces outils sur leurs smartphones ou leurs ordinateurs personnels. C’est là que le risque de sécurité explose. » – Camille Morelon
C’est ce qu’on appelle le “shadow IA” : les usages se développent en dehors de tout cadre, avec un risque sérieux sur les données, l’image de l’entreprise et le respect des règles internes.
L’enjeu pour les RH et les directions : équiper, encadrer, sécuriser, plutôt qu’interdire.
2. Étape 1 – Sensibiliser : remettre tout le monde au même niveau
2.1. Expliquer ce qu’est (et ce que n’est pas) l’IA
Première brique incontournable : la sensibilisation.
« On commence par mettre tout le monde au même niveau : ce que sont ces outils, à quoi ils servent, ce qu’on peut faire et ce qu’on ne peut pas faire. » – Camille
Camille distingue deux grandes familles :
- IA prédictive (connue depuis les années 50)
- Recommandations sur Amazon, Netflix, moteurs de recherche, scoring, etc.
- IA générative, qui agite aujourd’hui tous les débats
- Génération de texte, d’images, de code, d’audio, de vidéo…
Point clé de sa pédagogie : ces outils ne “comprennent” rien.
« Ces outils ne comprennent pas ce qu’on leur dit. Ils font des calculs de probabilités sur ce qu’i a le plus de chances d’être la “bonne” réponse. » – Camille
On entraîne les modèles avec des millions de données (ex. images de chats). Quand vous posez une question, ils renvoient ce qui leur semble le plus probable. D’où :
- La puissance pour synthétiser, reformuler, combiner.
- Mais aussi les limites et les biais.
2.2. Parler des hallucinations (et les faire toucher du doigt)
Camille rappelle que les IA ne disent quasiment jamais « je ne sais pas » : elles préfèrent inventer une réponse plausible.
« Les IA renverront presque toujours une réponse, même si elle est fausse. Elles peuvent aller jusqu’à inventer des études, des chiffres, des citations. » – Raphaël
Des études récentes montrent qu’une réponse sur cinq à des questions d’actualité peut contenir des erreurs factuelles ou des citations déformées, ce qui illustre bien le risque d’hallucinations dans les usages professionnels.
Source : Le Monde.fr
Conséquences pédagogiques :
- On apprend aux managers et aux équipes à vérifier les informations sensibles,
- À croiser avec des sources fiables, notamment sur les sujets juridiques, médicaux, financiers, RH, etc.
2.3. Introduire le prompting comme compétence de base
Autre idée forte du webinaire : la qualité de la réponse dépend énormément de la qualité de la question (le prompt).
« Il y a l’art de poser les bonnes questions. Le prompting, c’est exactement ça. » – Camille
Deux méthodes ont été partagées :
- CRAFT de Raphaël
- Contexte
- Rôle donné à l’IA
- Action attendue
- Format
- Ton
- RTTCOC de Datasulting
- Rôle
- Tâche
- Technique (ou format, par exemple : image, présentation powerpoint, etc.)
- Contexte/Cible (à qui est-ce destiné ?)
- Objectif
- Contraintes (par exemple : 12 slides maximum)
Exemple de bonne pratique :
« Je demande à l’IA : “Avant de commencer ta mission, quelles questions tu veux me poser pour bien faire ta mission ?” Puis je réponds à ces questions. Et une fois sa tâche réalisée, je lui demande de s’auto-évaluer par une note sur 100. En dessous de 95/100, je lui demande de recommencer. » – Raphaël
Cette logique de travail en plusieurs étapes (souvent appelée “chaîne de pensée”) améliore fortement la qualité, tout en réduisant les hallucinations.
2.4. Sensibiliser à l’impact environnemental
Camille insiste également sur la sobriété numérique :
« Une requête à une IA est 10 à 30 fois plus énergivore qu’une requête sur un moteur de recherche classique. Pour une recette de sauce tomate, Marmiton fera très bien le job. » – Camille
Message à faire passer aux équipes :
- L’IA est un outil puissant,
- Mais à réserver aux situations où elle apporte réellement de la valeur.
2.5. Sécurité, RGPD et AI Act : les nouveaux impératifs
La sensibilisation inclut obligatoirement :
- Les données personnelles (RGPD),
- Les données stratégiques de l’entreprise,
- Les nouvelles obligations du règlement européen sur l’IA (AI Act).
Camille rappelle que :
- Tous les outils ne sont pas conformes au RGPD dans leurs versions grand public ;
- En entreprise, il faut privilégier des configurations et offres pensées pour la protection des données (ex. environnement Gemini for Workspace, Mistral, Copilot dans Microsoft 365, etc.).
Plus d'infos avec ce questions/réponses de la CNIL. - L’article 4 de l’AI Act impose désormais aux entreprises de s’assurer que leurs équipes disposent d’un niveau suffisant de connaissance en IA, avec des actions de sensibilisation et de formation adaptées au rôle de chacun.
Plus d'informations sur les obligations liées à l'AI Act dans cet article dastra.eu.
« Sensibiliser les collaborateurs, ce n’est plus seulement une bonne pratique, c’est une obligation réglementaire. » – Camille
3. Étape 2 – Identifier les bons cas d’usage, pas “faire de l’IA pour faire de l’IA”
Une fois les bases posées, on passe à la deuxième étape : clarifier les cas d’usage.
« On ne fait pas de l’IA pour faire de l’IA. On part des besoins, des problèmes à résoudre dans l’entreprise. » – Camille
Concrètement, Datasulting anime des ateliers avec des représentants de différents métiers :
- On liste les “cailloux dans la chaussure” : tâches répétitives, chronophages, frustrantes,
- Les tâches qu’on ne fait pas faute de temps ou de ressources,
- Les nouvelles idées de services rendus aux clients internes/externes.
Les post-it s’accumulent, et on commence à voir émerger des patterns communs entre services.
Exemples concrets cités pendant le webinaire
- Comptes rendus de réunion
- Analyse de documents volumineux (appels d’offres, contrats, études)
- Outils d’analyse documentaire comme NotebookLM : recherche dans des documents longs, synthèses, extraits ciblés.
- Génération de présentations
- Outils comme Gamma ou Copilot pour construire des trames de slides à partir d’un texte ou d’un plan.
- Automatisation de la veille
- Programmation d’outils d’automatisation (Make, Zapier, Power Automate…) pour :
- collecter les articles de sources “de confiance”,
- générer un résumé,
- mettre en forme,
- diffuser automatiquement par e-mail ou dans Teams.
- Programmation d’outils d’automatisation (Make, Zapier, Power Automate…) pour :
- Support client / SAV par e-mail
- Analyse automatique des messages entrants, proposition de réponse rédigée, contrôlée et validée ensuite par un humain.
« On ne va pas jusqu’à l’envoi automatique : on garde un humain qui lit, corrige, améliore et envoie. L’IA prépare, l’humain décide. » – Camille
4. Étape 3 – Passer à l’opérationnel (sans perdre la main)
Une fois les cas d’usage identifiés, l’idée est de prioriser les quick wins :
- Bénéfice clair (temps, qualité, satisfaction client interne),
- Mise en œuvre réaliste (outils sur étagère, peu de développement sur mesure).
Deux leviers sont alors possibles :
- Former les équipes sur les outils retenus (managers, fonctions support, RH, métiers).
- Externaliser certaines réalisations (par exemple, l’automatisation d’une veille ou la mise en place d’un premier “copilote” pour le service client).
« L’IA doit nous permettre de nous libérer des tâches répétitives pour qu’on puisse se concentrer sur des sujets à plus forte valeur ajoutée. » – Camille
Raphaël illustre ce principe avec un cas très concret : les récap’ de webinaires Fasterclass eux-mêmes sont préparés avec l’IA (transcript + prompt bien ficelé), puis relecture et validation humaine avant mise en ligne.
5. Étape 4 – Installer une gouvernance IA claire (charte, rôles, outils)
Dernier pilier : la gouvernance. Sans elle, les usages restent ponctuels et le “shadow IA” prospère.
5.1. Clarifier la position de la direction
Camille insiste sur la nécessité d’un message clair :
- Pourquoi l’entreprise investit sur l’IA,
- Quels usages sont encouragés,
- Quels risques sont pris au sérieux (données, éthique, social),
- Comment les collaborateurs seront accompagnés (acculturation, formation, support).
« Les collaborateurs ont besoin de savoir ce qu’on fait avec l’IA et où on va. » – Camille
5.2. Construire une charte IA vivante
La charte IA est un outil clé de cette gouvernance :
- Elle pose les règles du jeu :
- outils autorisés / interdits,
- types de données qu’on peut ou non utiliser,
- bonnes pratiques de vérification,
- rappel que l’humain reste décisionnaire.
- Elle doit refléter les valeurs de l’entreprise (respect, transparence, confiance, éthique).
Camille explique aussi comment l’IA peut aider à… écrire la charte IA :
« On peut utiliser Perplexity pour aller chercher des exemples de chartes, puis NotebookLM pour analyser ces documents et en extraire les grandes catégories. Ensuite, on remet de l’humain avec un atelier mêlant juridique, DSI et métiers. » – Camille
Cette approche est cohérente avec les recommandations générales sur la sensibilisation à l’IA en entreprise : expliquer les outils utilisés, leurs bénéfices, leurs limites et les bonnes pratiques, dans un langage accessible à tous.
5.3. Désigner des référents et des ambassadeurs IA
Pour que la charte ne reste pas un PDF oublié, Camille recommande de s’appuyer sur des profils déjà moteurs :
« Généralement, on les repère vite : ce sont ceux qui ont une appétence forte pour ces outils, qui les utilisent déjà à titre personnel et ont commencé à les transposer au travail. » – Camille
Rôles possibles :
- Référents IA par métier ou par département,
- Ambassadeurs chargés de relayer les bonnes pratiques,
- Points de contact pour les questions sécurité / outils / cas d’usage.
5.4. Encadrer le “shadow IA” avec des espaces de test
Dernier point : il s’agit moins de “traquer” le shadow IA que de le canaliser.
« On travaille avec des adultes responsables. Si on les sensibilise bien aux risques, il faut aussi leur faire confiance et leur offrir des espaces de test. » – Camille
Proposition opérationnelle :
- Créer des “laboratoires IA” ou “bulles d’expérimentation”,
- Autoriser les tests dans un environnement encadré,
- Documenter les usages intéressants et les transformer ensuite en cas d’usage officiels.
Conclusion – Un kit d’action pour les RH qui veulent avancer vite et bien
À l’issue du webinaire, Raphaël et Camille proposent un kit d’action IA à télécharger qui reprend les grandes étapes :
- Sensibiliser les collaborateurs (bases, limites, risques, RGPD, AI Act).
- Faire émerger les cas d’usage avec les métiers.
- Passer à l’opérationnel via des quick wins formés ou accompagnés.
- Structurer la gouvernance (charte IA, outils, ambassadeurs, socialisation).
« L’idée, ce n’est pas de faire peur, ni de foncer tête baissée, mais de construire une culture de l’IA saine, utile et sécurisée. » – Raphaël

.jpg)







%202.png)

%201.png)


