• Le 13 avril, lors du Sommet Impact Tank 2026, un groupe de travail consacré à l’impact social de l’intelligence artificielle dans les organisations a réuni six intervenants aux profils très différents, mais confrontés à une même réalité : une technologie qui s’installe partout, vite, parfois plus vite que la capacité des organisations à en mesurer les effets. 

    Autour de la table, Nicolas Bourgerie, Président & CEO de Very Up y prenait la parole aux côtés de chercheurs, d’entreprises et d’acteurs publics. Des prismes variés et c’est précisément ce qui a fait la richesse de l’échange.

    Retour sur les différentes idées et enjeux évoqués.

  • "On ne mesurera pas sérieusement l'impact social de l'IA à distance du travail réel."

    C’était un premier échange pour ce groupe de travail, qui va se réunir à plusieurs reprises pour formuler collectivement un certain nombre de constats et recommandations pour le gouvernement.

    Ce premier échange a surtout confirmé cette conviction forte. On ne mesurera pas l’impact de l’intelligence artificielle sur la société si on reste éloigné de la réalité du travail, c’est-à-dire sans observer concrètement comment les gens travaillent avec l’IA au quotidien. Ou sans regarder les équipes qui se reconfigurent. Ou les managers qui arbitrent, accompagnent, rassurent. Ou encore les collaborateurs qui essaient de suivre sans décrocher. 

    C’est sans doute ce qui a donné à cet atelier sa tonalité particulière. Des retours d’expérience, des signaux faibles, des données précises, des inquiétudes assumées et une même volonté : regarder l’IA non seulement comme un levier technologique, mais comme un fait social. 

  • « Il n’y a pas une seule IA, mais plusieurs façons de la penser » 

    Comme l’a rappelé Nicolas Bourgerie, parler de « l’IA » comme d’un tout homogène brouille le débat et empêche de distinguer des effets pourtant très différents. Il a proposé une distinction entre une IA productive, qui accélère l’exécution, et une IA pédagogique, qui aide à développer la compétence, l’autonomie et la capacité à apprendre.  

  • Nicolas Bourgerie
    Président & CEO, Very Up

    Cette distinction déplace le regard. D’un côté, une IA qui aide à aller plus vite, à synthétiser, à résumer, à produire. De l’autre, une IA qui peut aider les individus à mieux comprendre, à progresser, à s’autonomiser. Et derrière cette distinction, un enjeu social de premier ordre : si l’on ne pense l’IA que sous l’angle du gain de temps, on risque de transférer toujours plus de pression sur les individus, sans développer pour autant leur véritable maîtrise du travail.
    Là où une IA productive va accélérer le travail, une IA pédagogique va aider chacun à trouver sa place dans le travail !

  • Cette idée a trouvé un écho immédiat dans les autres interventions. Aurélie Cordier-Caillot (Partner Communauté Learning & Management, Julhiet Sterwen) a, elle aussi, insisté sur la nécessité de distinguer des usages très différents, elle mentionne les notions évoquées par Jean-Roch Houllier (Safran) d‘IA de substitution et d’IA de confrontation; celle qui ne remplace pas seulement un effort, mais pousse aussi à réfléchir davantage, à challenger, à prendre du recul.  

    Autrement dit : tout l’enjeu n’est pas seulement d’introduire l’IA dans les organisations. C’est de savoir quelle IA on introduit, pour quoi faire, et avec quelles conséquences sur le rapport au travail. Sans les opposer, car, comme le rappelle aussi Nicolas, ces IA sont complémentaires.  

  • Le vrai sujet n’est pas l’outil seul, mais l’écart entre la promesse et la capacité réelle à suivre

    Selon les données mentionnées :

    • 60 % des collaborateurs ont désormais accès à l’IA,
    • 75 % des entreprises en attendent des gains,
    • mais 84 % n’ont pas fait évoluer leurs pratiques de travail,
    • et seules 20 % constatent réellement des gains de productivité. 
  • C’est ce qu’Aurélie Cordier-Caillot nomme le « learning gap » : l’écart entre ce que la technologie permet théoriquement et ce que l’organisation est réellement capable d’en faire. 
    Cet écart est central. On parle beaucoup de l’IA, mais on forme encore trop peu, trop vite, ou trop superficiellement aux usages réels. 

    C’est aussi ce qu’a observé Victor Pacaud (Consultant senior en stratégie d’innovation, Dynergie). Sur le terrain, le contraste est net : d’un côté des démarches construites, impliquant les collaborateurs ; de l’autre, des déploiements précipités, souvent réduits à “une journée de formation”… pour des résultats décevants. 

    L’enjeu est de savoir si l’organisation a repensé, même partiellement, ses modes de fonctionnement, ses apprentissages, sa gouvernance, ses espaces de dialogue.  

    Sans cela, l’IA reste souvent un geste technique plaqué sur une organisation inchangée.

  • La peur de l'érosion des compétences

  • L’apport de Roxana Rugina (Directrice exécutive, Impact AI) a été particulièrement précieux pour objectiver le débat.  L’Observatoire Impact AI, est une étude récente menée auprès de salariés et de managers, visant à mesurer l’adoption de l’IA et à analyser ses effets réels sur le travail, les compétences et les dynamiques organisationnelles. À travers les premiers enseignements de l’observatoire, elle a rappelé que la formation change profondément la manière dont les salariés perçoivent l’IA et ses risques.  Les salariés formés sont moins dans la seule peur de perdre leur emploi ; ils identifient aussi d’autres enjeux, comme la sécurité des données, l’impact environnemental ou la perte de connaissances. 

    Deux chiffres ressortent particulièrement : 

    • 32 % des salariés s’inquiètent de la perte de connaissances,
    • et 36 % citent la perte des compétences comme un risque prioritaire.  

    Au-delà de la crainte de la substitution de l’emploi, ce qui inquiète aussi, c’est l’érosion progressive de la compétence, le risque de dépendance, le fait de “faire sans savoir faire”. 

  • L’observatoire met également en lumière d’autres décalages très forts : 

    • Un salarié sur deux utilise déjà l’IA générative.
    • Parmi les personnes formées, elles sont 90 % à l’utiliser régulièrement. Mais seulement 6 % ont bénéficié d’une formation approfondie. 
    • Autre tension marquante : 71 % des managers utilisent l’IA, mais seuls 36 % des salariés partagent leur enthousiasme sur le fait que tout le monde devrait s’y mettre.
    • Enfin, la fracture territoriale est très nette : environ 60 % des utilisateurs en Île-de-France se disent très enthousiastes, tandis que dans les territoires, 60 % n’utilisent pas du tout l’IA.  

    L’appropriation de l’IA ne se diffuse pas uniformément, elle produit déjà des écarts. Entre managers et équipes. Entre salariés formés et salariés non formés. Entre territoires. Entre ceux qui expérimentent et ceux qui regardent passer le train. 

  • Un risque massif : croire qu’aller plus vite, c’est déjà savoir faire

  • La contribution de Nicolas Bourgerie a été particulièrement forte sur ce point. Il a proposé une lecture plus fine des inégalités liées à l’IA, en expliquant qu’elles se jouent moins dans le simple accès à l’outil que dans la maîtrise réelle des connaissances ou des compétences lorsqu’on l’utilise.  

    Ce qu’il décrit, c’est une inégalité liée au niveau de maîtrise préalable. Lorsque l’on est déjà compétent, l’IA peut produire des gains de productivité spectaculaires, parfois de 40 %, 50 %, voire beaucoup plus dans certains secteurs. Mais lorsque l’on ne maîtrise pas vraiment le sujet, elle peut au contraire ralentir, fragiliser, ou créer une illusion de maîtrise. Et c’est là que le risque devient socialement très fort.  

  • Derrière cette phrase, il y a des risques très concrets pour les organisations. Des collaborateurs peuvent produire plus, plus vite, avec une apparence de qualité, sans avoir consolidé leur compétence. Jusqu’au moment où ils se retrouvent seuls face à une situation complexe, sans la béquille immédiate de l’outil. Là, l’écart apparaît brutalement. Et cet écart a des effets très humains : perte de confiance, perte d’estime de soi, sentiment de ne pas être à la hauteur. 

    Trois risques majeurs émergent : 

    1. La surexposition des plus compétents, entraînés dans une logique d’hyper-performance. 
    1. L’illusion de maîtrise.  
    1. L’exclusion de certains publics, notamment les personnes en situation d’illettrisme. 
  • Ce qui fragilise aujourd’hui les organisations : intensité, surcharge, perte de sens

  • L’un des grands mérites de cet atelier est d’avoir mis des mots très précis sur des effets encore peu mesurés. 

    Aurélie Cordier-Caillot a insisté sur un point trop peu discuté : l’intensité décisionnelle. Plus d’informations, plus vite, signifie aussi plus de décisions à prendre, plus souvent, avec moins de recul. À cela s’ajoute une surcharge cognitive croissante, qui fait peser un risque direct sur la santé mentale des leaders et des équipes. Elle a aussi pointé un effet plus insidieux : lorsque la décision est soutenue par une technologie, certains collaborateurs peuvent se sentir moins responsables de ses conséquences.  

    Victor Pacaud, de son côté, a mis en avant deux autres angles essentiels : la gestion de la compétence et la perte de motivation au travail. Il a souligné que les hard skills traditionnelles risquent d’être dévalorisées, pendant que d’autres compétences montent en puissance, comme l’esprit critique, l’empathie ou la capacité à bien déléguer une tâche à l’IA. Il a aussi pointé le risque de perte de lien social : « vous passez peut-être plus de temps à discuter avec une intelligence artificielle qu’avec vos collègues ». Une phrase simple, mais très juste, qui dit bien ce que certaines organisations commencent déjà à sentir sans encore savoir le nommer.  

    Roxana Rugina rappelle aussi que l’IA a déjà tendance à isoler, à individualiser la relation au travail. Chacun teste dans son coin, chacun avance à sa vitesse, chacun s’inquiète aussi, parfois, en silence. Le risque n’est donc pas seulement technique. Il est collectif. L’IA peut fragiliser le faire ensemble, si l’on ne crée pas des espaces explicites pour penser, débattre, arbitrer et apprendre collectivement. 

  • Des retours d’expérience très concrets, qui montrent aussi le potentiel positif

    Ce groupe de travail n’a pas seulement pointé les risques. Il a aussi rappelé, et c’est important, que l’IA peut déjà produire des effets très concrets et positifs lorsqu’elle est pensée avec intention. 

    Mahdi Belounis (Solutions and Services Country Lead, Lenovo) a apporté un regard très opérationnel, issu du terrain client. Chez Lenovo, certains usages permettent déjà de réduire de 20 à 30 % les incidents et tickets côté support, d’améliorer la détection préventive en cybersécurité, ou encore d’ajuster plus finement l’usage des infrastructures et la dépense énergétique. 

    Il a aussi évoqué des applications à fort impact social, notamment dans le champ du handicap, avec des solutions fondées sur la voix, l’eye tracking ou le sous-titrage en temps réel, développées avec la Fondation Scott Morgan.  

    Roxana Rugina a, elle, rappelé que l’IA peut aussi aider des publics vulnérables, en citant l’exemple de Ma Voix, qui accompagne des chercheurs d’emploi grâce à des parcours assistés par l’IA, du CV aux entretiens.  

    Victor Pacaud a donné l’exemple de démarches plus robustes en entreprise, fondées sur des groupes tests, des logiques d’ambassadeurs, des hackathons, des expérimentations progressives et une vraie implication des collaborateurs dans les choix.  

    Tous les intervenants convergent vers un point clé : l’IA ne produit pas d’impact social positif sans cadre. Gouvernance, espaces de dialogue, capacité à expliciter les usages : sans cela, les intentions restent théoriques. 

  • Les échanges ont également permis d’élargir le sujet à des dimensions encore trop peu abordées. La question des référentiels culturels, par exemple, est apparue comme un angle mort important. Une intelligence artificielle n’est jamais neutre : elle est nourrie par des données, elles-mêmes issues de contextes spécifiques. Cela soulève des enjeux de souveraineté, de dépendance technologique, mais aussi d’inégalités entre pays face à la production et à la maîtrise de ces données. 

  • Faire de l'IA un levier d'émancipation

    En conclusion, si tout le monde pointe bien sûr les gains de productivité majeurs promis par l’IA, les intervenants ont partagé une vigilance commune : le temps gagné n’est pas une fin en soi. 

    Comment faire de l’IA un levier d’émancipation et pas uniquement un moyen d’accélération ? 

    Si l’IA ne sert qu’à accélérer, alors elle contribuera à intensifier le travail. 

    A l’inverse, si elle est investie dans lelien social,ledéveloppement des compétences, alors elle sera un levier d’émancipation. 

  • Et après cet atelier ?

    Les questions ouvertes sont nombreuses pour la suite. 

    • Comment former plus vite, mais surtout mieux, à des usages qui transforment déjà le travail réel ?
    • Comment éviter que la diffusion de l’IA ne creuse encore davantage les écarts entre ceux qui maîtrisent et ceux qui subissent ?
    • Comment préserver le lien social, la responsabilité, la motivation et la santé mentale dans des environnements de plus en plus intensifiés ?
    • Comment mesurer, sur trois ou cinq ans, ce que l’IA fait réellement aux connaissances, à la création de valeur, à la qualité du travail et à la place de chacun ?  
    • Et surtout : comment (re)construire une IA qui n’accélère pas seulement l’exécution, mais qui aide aussi les individus à reconstruire la maîtrise de leur métier ? 

    C’est précisément ce qui rend ce groupe de travail important. Parce qu’il cherche à faire remonter bien plus que des opinions générales sur l’IA et son impact, il s’ancre déjà dans des situations réelles, des angles morts, des apprentissages permis par des données, pour mieux explorer les tensions concrètes entre technologie, travail, compétences et management. Autant de sujets clés qui viendront nourrir des recommandations que nous avons déjà hâte de découvrir. 

     

  • « C’est aussi ça, le rôle de Very Up. Concevoir des parcours hybrides à impact, oui. Mais aussi faire en sorte que ce qu’on observe dans nos missions puisse, parfois, nourrir quelque chose de plus large, que chaque projet pris isolément.  C’est avec Teach Up, qui conçoit la brique d’IA pédagogique de nos dispositifs, que nous portons cette vision. Une IA qui n’accélère pas que l’exécution. Une IA qui aide aussi les gens à reconstruire la maîtrise de leur métier et à trouver leur bonne place. »

    – Nicolas Bourgerie

Une question ? Envie de nous rencontrer ?

N'hésitez pas à nous écrire.

Joindre un brief ou un document
Le fichier ne doit pas excéder 64 Mo.