Comment transformer l’IA-anxiété en IA-sérénité ?
« La grande peur de l’intelligence artificielle », « Les métiers les plus menacés par l’intelligence artificielle », « Cet ‘ogre numérique’ qui angoisse les travailleurs » : ces quelques titres médiatiques1 ne sont qu’une petite sélection des publications des derniers mois. Plus de la moitié des Français percevraient l’IA comme une menace2. De l’autre côté de l’Atlantique, 71 % se disent préoccupés par l’exposition accrue à l’IA3.
Si « l’éco-anxiété » a récemment fait son entrée dans le dictionnaire, la question qui se pose est alors : à quand le tour de ce que l’on appelle plus communément l’« IA-anxiété »4 ? Et celle-ci engendre les suivantes… Comment pouvons-nous la réduire ? Quel est le rôle de l’entreprise ? Que peuvent faire les managers pour (encore mieux) accompagner leurs collaborateurs ?
- 1. Imaginez…*
Certains de vos collaborateurs sont stressés à l’idée que l’IA puisse réaliser une partie de leurs tâches quotidiennes. Ils voient passer de plus en plus de publications promouvant les différents outils et se sentent parfois perdus, voire menacés5. Il y a tellement de nouveautés tous les jours qu’ils ont l’impression de ne plus pouvoir suivre. Et en plus, leurs clients et leurs prospects les challengent déjà et demandent de produire plus vite et moins cher, ce qui devrait (selon eux) être possible, avec des IA.
Soucieux de les aider, vous décidez alors de les réunir et de leur offrir une conférence d’un spécialiste de l’intelligence artificielle qui leur apporte de la clarté, de la nuance et les encourage à tester différents outils pour créer in fine de l’apaisement. Ils apprennent alors que :
- l’IA « c’est juste des programmes informatiques qui simulent l’intelligence humaine » ;
- ChatGPT, bien que nous puissions avoir l’impression qu’il comprend, qu’il pense et qu’il raisonne, « il ne fait que de la statistique : il prédit juste le mot le plus probable » ;
- nous avons tout intérêt à considérer l’IA comme un « super-assistant » qui va nous aider à être plus efficaces plutôt que de s’en méfier.
De plus en plus rassurés, vos collaborateurs découvrent alors des exemples précis d’outils qui embarquent des IA à tester dans leurs quotidiens respectifs. Dès le lendemain, ils font : ils testent, ils évaluent avec esprit critique et ils adoptent uniquement les outils qui leur servent vraiment, tout en créant, eux, une vraie plus-value, grâce à leurs méthodes, leurs idées et leurs innovations.
- 2. Qu’est-ce qui a permis une telle émulation positive ?
Quelqu’un les a aidés à bien nommer les choses, ce qui a permis de clarifier et de créer du soulagement6. En apprenant plus sur l’histoire et le fonctionnement des IA, ils ont compris que l’intelligence artificielle pouvait surtout être utilisée à bon escient pour accroître leur intelligence humaine7. Ils ont alors décidé de tester différentes IA, ils se sont mis à faire, se sont engagés activement plutôt que de subir et de se sentir submergés. En passant d’une certaine passivité à l’action, ils ont créé des groupes de travail pour expérimenter, pour croiser leurs expériences et pour apprendre les uns des autres. Chacun a ainsi pu se recentrer sur sa valeur unique, la valeur qu’il ou elle peut créer grâce son intelligence et sa créativité. Ce fameux supplément d’âme qu’aucune IA ne nous apporte à ce jour.
Comment expliquer un tel résultat ?
Si nous devions mettre des mots quelque peu savants sur ce qu’ils ont vécu, nous pourrions mobiliser la théorie cognitive sociale8 pour dire que leur sentiment d’efficacité personnelle a considérablement augmenté et, ce faisant, la croyance en leur capacité à faire, ainsi que leur confiance en leur pouvoir d’action.
L’angoisse augmente lorsque nous avons l’impression de ne pas pouvoir contrôler les choses. Scientifiquement, cela s’appelle un « locus de contrôle externe ». Ce que les mots de l’intervenant, les expériences concrètes et l’apprentissage collectif ont permis est le passage à un « locus de contrôle interne9 » qui s’accompagne de la croyance vertueuse que « le sort » dépend de nous plutôt que des facteurs extérieurs. Autrement dit : nous sommes des acteurs de notre propre destin10.
- 3. Quelles soft skills pour réduire l’IA-anxiété ?
- Être à l’écoute active et empathique de ce que vit chacun et agir rapidement sur les doutes et sur la part du fantasme qui peut générer de l’angoisse #care11
- Adopter une posture de facilitateur et apporter de la clarté pour aider chacun à envisager sereinement l’avenir en tirant profit des IA #upskilling12
- Augmenter le sentiment d’efficacité personnelle en aidant chacun à tester, à faire et à évaluer avec esprit critique #agentivité13
- Encourager l’apprentissage collectif en stimulant la création de groupes de travail et en ritualisant des retours d’expériences partagés #pairagogie14
Apprivoisons nos doutes comme une force.
Adoptons un learning mindset15 qui nous permet de grandir continuellement.
Transformons notre pouvoir d’agir en antidote au sentiment d’impuissance.
Réconcilions, définitivement, soft et hard skills car l’omniprésence des IA nécessite à la fois sa compréhension et sa maîtrise technique mais aussi des aptitudes socio-cognitives16.
Accordons toujours plus de place au faire car c’est (aussi) en expérimentant et en créant que notre confiance se développe et que l’anxiété et l’angoisse s’amenuisent.
Et méditons ceci :
« Avoir confiance en soi, ce n’est pas être sûr de soi. C’est trouver le courage d’affronter l’incertain au lieu de le fuir. Trouver dans le doute, tout contre lui, la force de s’élancer. »17
Notes :
1Sélection de titres de différents médias, et notamment : Philosophie Magazine, Les Echos, Le Monde.
2En début d’année 2023, une enquête IPSOS estiment que seulement 37 % des Français étaient « inquiets ». Une plus récente étude ODOXA évoque que 67 % des Français considèrent l’IA comme une menace, tandis que le « Baromètre Impact AI » dévoile que « 67 % ont peur que l’Humain perde le contrôle sur l’IA ».
3 L’enquête sur l’anxiété liée à l’IA dans les entreprises a été commanditée par Ernst & Young et menée auprès de 1 000 Américains en octobre 2023.
4 Si la notion « AI anxiety » a considérablement gagné en notoriété depuis un an, l’expression date de 2017 et a été théorisée par Deborah G. Johnson et Mario Verdicchio dans leur article « AI Anxiety », publié dans le Journal of the Association for Information, Science and Technology.
5 De nombreux articles de presse et d’émissions radio/télévisées vont jusqu’à parler de la peur du grand remplacement par l’IA. Une étude de Goldman Sachs de 2023 estime que 300 millions d’emplois dans le monde pourraient disparaître à la faveur du développement de ces technologies. Au-delà de la peur de perdre son emploi, l’inquiétude peut également être liée à la propagation de la désinformation, la déshumanisation de certains secteurs ou encore la hausse de la cybercriminalité.
6 Formulation inspirée de la citation d’Albert Camus de 1944 : « mal nommer un objet, c’est ajouter au malheur du monde », bien que la paternité de l’idée est attribuée à Brice Parain, contemporain de Camus.
7C’est ainsi que se termine le TED Talk de Sal Khan : How AI could save (not destroy) education?
8 Aussi appelée théorie de l’apprentissage social et introduite par le psychologue américain Albert Bandura qui est également à l’origine du concept de « self-efficacy », généralement traduit par « efficacité personnelle ».
9 Terme proposé par Julian Rotter en 1954 et également appelé « lieu de maîtrise » en français.
10 C’est par ces autres mots d’Albert Camus : « L’homme n’est rien en lui-même. Il n’est qu’une chance infinie. Mais il est le responsable infini de cette chance. » que commence la préface de Philippe Carré à l’ouvrage d’Albert Bandura, Auto-efficacité. Comment le sentiment d’efficacité personnelle influence notre qualité de vie, De Boeck, 2019.
11 De nombreux écrits existent sur le sujet du Care Management. Un article récent de Cécile Déjoux dans Harvard Business Review en présente trois piliers.
12 Se former et former ses équipes aux IA est un facteur déterminant : le sentiment de mieux comprendre et de mieux maîtriser permet plus facilement de visualiser des scénarios positifs, favorisant ainsi motivation et engagement. Cf. Albert Bandura, Auto-efficacité, op. cit. C’est notamment ici que l’hybridation soft & hard skills prend tout son sens.
13 Conceptualisée par Albert Bandura, la notion d’agentivité (agency) s’appuie sur les travaux d’Alfred Adler et a été repris récemment par Jérémy Lamri dans son article « L’agentivité : le lien ultime entre soft skills et IA ».
14 Faire d’un acte d’apprentissage un acte coopératif a de nombreuses vertus. Je m’appuie notamment sur l’ouvrage de Denis Cristol, Apprendre à apprendre ensemble. Initiation à la pairagogie, ESF Sciences humaines, Cognitia, 2022.
15 Inspiré du « growth mindset » théorisé par Carol Dweck et de l’importance d’un « lifelong learning » notamment décrite par Oleksandra Poquet et Maarten de Laat, « Developing capabilities: Lifelong learning in the age of AI », British Journal of Educational Technology, 2021.
16 Une idée développée par Jérémy Lamri et Todd Lubart, « Reconciling Hard Skills and Soft Skills in a Common Framework: The Generic Skills Component Approach », Journal of Intelligence, 2023.
17 Conclusion de Charles Pépin, La confiance en soi. Une Philosophie, Allary Éditions, 2018.