Sommet Impact Tank 2026 : Teach Up s'engage pour l'impact social de l'IA dans les organisations

Le 13 avril dernier, au Palais d'Iéna, s’est tenu le Sommet de la Mesure d'Impact organisé par l’Impact Tank. À cette occasion, Teach Up a rejoint en tant que partenaire un groupe de travail dédié à l'impact social de l'IA dans les organisations. L'objectif partagé par les chercheurs, dirigeants et acteurs publics présents : dépasser le prisme de la seule promesse technologique pour observer les effets réels de l'Intelligence Artificielle sur le travail, les collaborateurs et les savoir-faire. Retour sur les enjeux de cette journée riche en débats.
« Entre le fantasme de la machine qui résout tout et la peur de l'apocalypse de l'emploi, il existe une voie médiane, plus proche de la réalité du travail. » C’est sur ces mots de Louis Raynaud de Lage (Cabinet Bartle) que s’est ouvert le groupe de travail dédié à l'impact social de l'IA.
L'adoption de l'Intelligence Artificielle dans les organisations ne se mesure pas uniquement en gains de temps ou en réduction de coûts. L'enjeu est aussi d'évaluer cet impact au plus près du travail réel, là où les métiers se reconfigurent. Regarder le phénomène en face, chiffres à l'appui, avec ses promesses, mais surtout avec ses fractures.
Le Learning Gap : l’IA face à la réalité du travail
Les premières données partagées lors de l'événement ont mis en évidence un contraste saisissant dans l'adoption des outils. Aurélie Cordier-Caillot (Julhiet Sterwen) a pointé un phénomène de Learning Gap : si 60 % des collaborateurs ont aujourd'hui accès à l'IA, 84 % des entreprises n'ont pas encore fait évoluer leurs pratiques de travail et leur gouvernance en conséquence. Et seules 20 % constatent des gains de productivité réels.
L'impact social de l'IA se lit également à travers les craintes exprimées par les salariés, objectivées par Roxana Rugina à travers le baromètre de l'Observatoire Impact AI. Les données révèlent que l'inquiétude ne se limite pas à la substitution de l'emploi, mais touche directement à la maîtrise du métier :
- 36 % des salariés citent la perte de compétences comme un risque prioritaire.
- 32 % s'inquiètent de la perte de connaissances.
L'Observatoire met aussi en lumière des fractures dans l'appropriation de l'outil. D'une part, un clivage hiérarchique : 71 % des managers utilisent l'IA et en font la promotion, contre seulement 36 % de leurs équipes. D'autre part, une fracture de formation : si 90 % des personnes formées utilisent l'IA régulièrement, seuls 6 % des utilisateurs ont bénéficié d'une formation approfondie. La fracture est également territoriale, avec 60 % de non-utilisateurs dans les régions contre une hyper-adoption francilienne.
L'outil est déployé, mais l'organisation du travail reste souvent inchangée.
Surcharge cognitive et perte de sens : le coût humain de l'accélération
Ce décalage génère de nouveaux risques pour les équipes, notamment ce qu'Aurélie Cordier-Caillot nomme « l'intensité décisionnelle » : l'IA produisant davantage d'informations en un temps réduit, les collaborateurs doivent prendre plus de décisions, plus vite, ce qui accroît le risque de surcharge cognitive.
Un constat complété par Victor Pacaud (Dynergie), qui observe une mutation des attentes : face à la dévalorisation potentielle de certaines hard skills (compétences techniques pures), de nouvelles compétences deviennent cruciales, comme l'esprit critique, l'empathie, ou encore ce qu'il nomme les « out skills » (la capacité à savoir déléguer efficacement une tâche à l'IA). Il souligne également un point de vigilance sur la cohésion d'équipe, rappelant que certains collaborateurs passent désormais plus de temps à interagir avec une interface qu'avec leurs pairs : « Vous passez peut-être plus de temps à discuter avec une intelligence artificielle qu'avec vos collègues. »
L'adoption de l’Intelligence Artificielle dans les organisations, en l'état, est un facteur de fragmentation des collectifs. Entre managers et équipes. Entre salariés formés et salariés non formés. Entre territoires. Entre ceux qui expérimentent et ceux qui n’ont pas encore sauté le pas.
Il n’y a pas qu’une seule IA : distinguer IA productive et IA pédagogique
C'est sur cet enjeu précis de la compétence qu'est intervenu Nicolas Bourgerie, CEO de Teach Up et Very Up, pour alerter sur le danger d'une technologie pensée uniquement par le prisme de la vitesse. Il a invité l'assemblée à ne pas considérer l'IA comme un bloc homogène, en introduisant une distinction fondamentale pour les organisations.
« Il n’y a pas une seule IA, mais plusieurs façons de la penser. Il y a l'IA productive, qui accélère l'exécution, synthétise et produit. Et il y a l'IA pédagogique, dont la vocation est d'utiliser les sciences cognitives pour aider les individus à comprendre, à progresser et à s'autonomiser. Si l'on ne pense l'IA que sous l'angle du gain de temps, on risque de transférer toujours plus de pression sur les individus, sans développer leur véritable maîtrise du travail. » — Nicolas Bourgerie
Cette distinction permet de comprendre le phénomène de polarisation observé sur le terrain. Pour un expert maîtrisant parfaitement son sujet, l'IA productive est un levier de performance (avec des gains allant parfois jusqu'à +400%). Mais pour un collaborateur novice ou en phase d'apprentissage, elle génère un risque majeur : l'illusion de la maîtrise.
Parce que l'IA fournit un résultat de qualité (une synthèse, un code, une analyse), l'utilisateur a le sentiment d'avoir acquis la compétence. Or, il n'a fait que sous-traiter la tâche. Face à une situation complexe nécessitant une intelligence situationnelle sans l'aide de l'outil, l'écart de niveau apparaît brutalement. C'est ce mécanisme qui conduit à la perte silencieuse de la mémoire métier et à la dégradation de la confiance en soi chez les collaborateurs. Le risque psychosocial est immense : perte d'estime de soi et effondrement de la performance.
L'IA productive, parce qu'elle "fait à la place de", crée un transfert de risque. À l'inverse, l'IA pédagogique, telle que développée par l'Adaptive Training de Teach Up, "fait avec" : elle guide, challenge et s'adapte au rythme cognitif de chacun pour garantir une véritable acquisition des savoirs.
Dans ce contexte, Aurélie Cordier-Caillot a rappelé la pertinence du modèle mis en place par Safran, qui distingue l'IA de substitution (qui remplace l'effort) de l'IA de confrontation, conçue pour challenger l'utilisateur et l'obliger à prendre du recul.
Réinvestir le gain de productivité dans le développement humain
Face à ces constats, le rôle de solutions comme l'Adaptive Training de Teach Up prend tout son sens : utiliser l'IA non pas pour faire "à la place de" l'apprenant, mais pour adapter l'apprentissage à son rythme cognitif, détecter ses lacunes invisibles et ancrer durablement la compétence.
La conclusion de ce premier groupe de travail a convergé vers une même exigence. Les gains de productivité générés par la technologie ne doivent pas être une fin en soi, conduisant à une simple intensification du travail. Ils doivent constituer une opportunité inédite pour réinvestir dans le temps long de l'apprentissage, la cohésion sociale et le développement de compétences solides. L'enjeu des prochaines années sera, plus que jamais, d'enseigner aux collaborateurs à « apprendre à apprendre ».
C’est tout l’enjeu de ce groupe de travail : dépasser les simples opinions sur l’IA en s’appuyant sur des situations concrètes et des données pour analyser les tensions entre technologie, travail, compétences et management, et préparer des recommandations à la hauteur des attentes.
Pour aller plus loin : Retrouvez l'intégralité de la table ronde de l'Impact Tank 2026
Vous souhaitez en savoir plus ?
Prenez rendez-vous avec un expert et découvrez la plateforme LXP !