Face à une IA omniprésente 63% des chefs d’entreprise avouent ne pas être prêts à diriger

Par Frederic Becquemin

L’IA ne frappe plus à la porte, elle s’impose déjà dans les décisions clés des entreprises. Cette irruption expose la préparation des dirigeants et révèle un leadership face à l’IA hésitant.

Dans les comités exécutifs, la confiance se fissure, entre enthousiasme technologique affiché et craintes à peine murmurées de perdre la main. Les salariés voient déjà la transformation du travail dans les tâches fragmentées, les évaluations automatisées, les décisions opaques où l’algorithme remplace peu à peu l’intuition du manager. Les données de l’enquête Catalyst Coqual valident ce malaise, et beaucoup de directions continuent ainsi, sans vrai débat, jusqu’au choc.

Un constat partagé entre la France, l’Allemagne et le Royaume-Uni

Réalisée par Catalyst avec le soutien de Coqual, l’enquête met à nu la fragilité d’une partie des directions d’entreprise en France, en Allemagne et au Royaume-Uni, où 63% des chefs se disent mal préparés à diriger dans un environnement saturé d’IA. Les chercheurs s’appuient sur un échantillon de 2 891 répondants, recrutés à parts presque égales entre les trois pays européens afin de refléter la diversité des cultures d’entreprise. L’étude intègre 34% de cadres dirigeants.

Lire aussi :  Profiter du télétravail pour se faire livrer ses courses à domicile

Le panel regroupe 34% de répondants en France, 31% en Allemagne et 35% au Royaume-Uni, tandis que la part des femmes atteint 47%. Les résultats par pays distinguent nettement les dirigeants et employés interrogés aujourd’hui.

Pourquoi les compétences en IA ne suffisent pas pour obtenir des résultats

Les résultats de l’étude montrent que l’usage de l’IA par les dirigeants britanniques dépasse largement celui observé en France et en Allemagne, sans produire automatiquement de meilleurs gains de productivité ou de qualité décisionnelle. Des compétences techniques en IA ne suffisent plus quand manque alors vraiment l’engagement des équipes.

Selon Catalyst et Coqual, les gains attribués à l’IA restent rares lorsque les dirigeants se limitent à un déploiement technologique. Ce sont des comportements managériaux cohérents qui transforment l’IA en performance commerciale, comme le montrent les axes ci-dessous.

  • Clarifier le rôle assigné à l’IA pour chaque fonction, en reliant systématiquement les projets aux priorités métiers.
  • Associer les équipes dès la phase de conception afin de limiter les peurs liées à l’automatisation et aux transformations de poste.
  • Former les managers au dialogue sur les données, la transparence des algorithmes et le partage des responsabilités.
  • Ajuster les indicateurs de réussite en intégrant des critères humains, comme la qualité du climat de travail et l’innovation collective.

Le profil du « dirigeant convergent », rare mais décisif

Selon l’étude de Catalyst et Coqual menée auprès de 2 891 dirigeants et salariés, seuls 37% des responsables interrogés correspondent au profil de « dirigeant convergent ». Majoritairement installés au Royaume‑Uni, à 55%, contre 25% en Allemagne et 20% en France, ces cadres combinent compétences en IA et qualité relationnelle.

Lire aussi :  JO : comment ces élèves ingénieurs deviennent des sportifs d'élite

Cette catégorie de dirigeants déclare 93% de gains de productivité d’équipe et 53% d’augmentation du chiffre d’affaires, des niveaux rarement atteints par les organisations dirigées par des profils non convergents. Pour y parvenir, ces cadres misent sur un leadership inclusif et une sécurité psychologique, associés à un état d’esprit flexible et à des décisions technologiques éclairées partagées avec leurs équipes.

Dans les équipes, l’IA alimente anxiété et méfiance

Dans les équipes interrogées au Royaume‑Uni, en France et en Allemagne, l’irruption de l’IA suscite autant de curiosité que de tensions. L’étude signale une crainte d’automatisation : 34% des répondants redoutent la perte de poste, tandis que 35% disent recevoir un soutien à la montée en compétences pour adapter tâches à ces outils.

Le décalage entre les ambitions des directions et la réalité du terrain ressort nettement dans l’enquête : 61% des organisations annoncent une politique « IA responsable », mais seulement 21% des managers jugent que les solutions retenues limitent les effets négatifs sur les salariés. Ce décalage nourrit un sentiment d’exclusion et fragilise la communication interne quotidienne.

  • Seuls 28% des dirigeants et 29% des employés perçoivent une véritable anticipation à long terme des effets des technologies sur le travail.
  • Moins de la moitié des politiques d’IA déclarées abordent clairement l’équité, à 49%, ou l’inclusion, à 48%.
  • L’impression d’être tenu à distance des décisions technologiques alimente la méfiance envers la direction.

Mesurer l’impact de l’IA : le point aveugle de la plupart des organisations

Dans des entreprises françaises, allemandes et britanniques, l’IA est déployée sans cadre clair pour évaluer ce qu’elle apporte aux équipes. Les directions collectent parfois des données, mais sans les convertir en véritables indicateurs d’impact IA utiles pour décider. Faute de méthode partagée, le suivi des résultats se limite à quelques retours qualitatifs, éloignant les dirigeants de la réalité quotidienne des salariés et des projets déjà transformés par les algorithmes.

Lire aussi :  Transformer le futur avec l'IÉSEG : l'enseignement interdisciplinaire de la RSE au cœur de l'excellence managériale

Pour relier l’IA aux résultats concrets, les directions générales doivent articuler performance, climat social et fidélisation. Des tableaux de bord internes intègrent déjà la mesure de l’engagement, tandis que les budgets orientent les priorités d’innovation vers des usages jugés utiles.

Équité et inclusion : des politiques affichées, des pratiques contestées

Dans les groupes interrogés en France, en Allemagne et au Royaume‑Uni, les directions affichent des chartes d’IA, tandis que 63% des chefs d’entreprise disent ne pas se sentir prêts à diriger avec ces outils. Derrière ces annonces, une politique d’IA responsable reste rare, car peu de comités exécutifs associent représentants du personnel, services juridiques et experts de la diversité pour encadrer les usages et les systèmes de décision automatisée.

Les salariés voient arriver des systèmes de scoring, de filtrage des candidatures ou d’assistants virtuels sans toujours savoir qui contrôle ces dispositifs. Sans adoption responsable de l’IA, ces déploiements nourrissent les risques d’inégalités et fragilisent toute culture inclusive en entreprise déjà fragile.

Notre site est un média approuvé par Google Actualité.

Ajoutez Mediavenir dans votre liste de favoris pour ne manquer aucune news !

nous rejoindre en un clic
google news follow

Rejoignez la communauté

Laisser un commentaire