Les budgets explosent pour l’intelligence artificielle industrielle, les directions misent sur des algorithmes qui surveillent machines et stocks en continu désormais. La maturité numérique reste, elle, très inégale entre sites.
Les investissements se multiplient, des dizaines de pilotes se déploient sur la maintenance, la logistique, la qualité, parfois sans feuille de route claire. Les premiers cas d’usage affichent déjà un retour sur investissement tangible sur les coûts d’énergie et de maintenance. L’adoption à grande échelle patine, freinée par l’intégration des systèmes.
Un secteur qui accélère malgré une préparation incomplète
Publié le 11 mars 2026 depuis Redwood City, en Californie, le rapport de Riverbed dresse un bilan contrasté de l’IA dans l’industrie. L’étude, menée par Coleman Parkes Research en juillet 2025 auprès de 1 200 décideurs de sept pays, révèle que les industriels ont doublé leurs dépenses dédiées aux projets. Les directions informatiques et métiers multiplient les initiatives autour de l’automatisation, de l’analyse prédictive et du support aux opérateurs en usine.
Cette dynamique masque un décalage : seulement 37 % des organisations déclarent être prêtes pour l’IA, malgré un ROI satisfaisant pour 87 % des programmes AIOps. Au regard de leurs investissements technologiques, beaucoup reconnaissent un faible niveau de préparation pour un véritable déploiement à grande échelle opérationnel.
Des projets encore bloqués au stade pilote
Le rapport « The Future of IT Operations in the AI Era » publié par Riverbed met en lumière un décalage entre enthousiasme et réalité opérationnelle dans les usines. Selon l’enquête menée en juillet 2025, 62 % des initiatives d’IA demeurent en phase pilote ou au stade expérimental, alors que 57 % des organisations industrielles déclarent se montrer confiantes dans leurs programmes actuels.
Les données restent le principal frein : 90 % des répondants citent leur amélioration comme priorité, tandis que 47 % doutent de leur exactitude et seulement 34 % les jugent excellentes pour l’IA. Cette fragilité retarde la mise en production de nombreux cas d’usage industriels, comme résumé par les chiffres ci‑dessous.
- 62 % des projets d’IA encore en test ou expérimentation.
- 57 % des entreprises industrielles se déclarant confiantes.
- 90 % plaçant l’amélioration des données au rang de priorité.
- 47 % doutant de la précision des données et seulement 34 % les jugeant excellentes.
La qualité des données reste le principal point faible
Dans de nombreuses usines, les projets d’IA patinent dès qu’il s’agit d’exploiter des données issues de systèmes hétérogènes, parfois âgés de plusieurs décennies. Les capteurs, les ERP, les MES et les applications métiers produisent chacun leurs propres formats, fréquences et niveaux de fiabilité.
Les directions industrielles découvrent alors que leurs référentiels ne décrivent pas assez finement les équipements et les procédés. Sans qualité des données garantie, presque aucun modèle prédictif ne tient ses promesses : il lui faut des données fiables, une précision des informations élevée et une véritable complétude des jeux de données pour détecter les dérives de production ou anticiper les pannes.
Pourquoi les fabricants réduisent le nombre d’outils
Face à la multiplication des solutions de supervision, d’APM et d’analytique, nombre de fabricants constatent une inflation de tableaux de bord que personne ne consulte vraiment. Les équipes IT et métiers doivent passer d’un écran à l’autre pour reconstituer la chaîne de production numérique et isoler l’origine d’une anomalie, puis hiérarchiser à la main les alertes. Parmi les priorités, trois axes reviennent.
- Réduire la redondance fonctionnelle entre les solutions de monitoring.
- Donner une vision unifiée des performances des lignes de production.
- Faciliter l’automatisation des actions correctives pilotées par l’IA.
Les directions techniques cherchent donc à regrouper leurs solutions autour d’une plateforme capable de couvrir le cloud comme l’atelier. Cette stratégie de consolidation des outils répond à plusieurs objectifs : renforcer l’interopérabilité applicative avec les systèmes existants, simplifier la gestion des fournisseurs et réduire le temps passé à corréler les événements avant d’agir sur les équipements physiques.
La communication unifiée ne tient pas encore ses promesses
Chez les industriels interrogés par Riverbed en juillet 2025, 42 % des responsables s’appuient sur des suites de communication unifiée tout au long de la semaine et 66 % des répondants les décrivent comme indispensables au fonctionnement quotidien. Malgré cette adoption large, seuls 45 % se déclarent satisfaits, dénonçant ergonomie confuse, lenteurs et gestion laborieuse des appels vidéo au quotidien aussi.
Les équipes signalent des freins liés aux outils collaboratifs et aux circuits de support. La combinaison d’une visibilité réseau limitée et d’une intégration entre plateformes de messagerie, applications et outils de supervision alourdit le diagnostic des incidents, dégrade l’expérience collaborateur et freine performance des équipes hybrides.
OpenTelemetry gagne du terrain dans les usines
Selon l’étude, 44 % des responsables industriels déclarent avoir déployé OpenTelemetry sur l’ensemble de leurs systèmes tandis que 42 % ne l’utilisent que sur certains périmètres. Pour ces organisations, cette montée de l’adoption d’OpenTelemetry déjà sert de socle à l’observabilité et aux projets d’IA opérationnelle.
Parmi les répondants, 97 % estiment que la capacité à relier données d’applications, d’infrastructures réseau conditionne la fiabilité des opérations numériques. Cette vision de corrélation interdomaines et d’observabilité ouverte explique que 37 % d’organisations rendent OpenTelemetry obligatoire sur leurs projets industriels.
Réseaux, stockage et transfert des données au centre des choix
Diffusé depuis Redwood City, en Californie, le 11 mars 2026, le communiqué de Riverbed s’appuie sur une enquête réalisée en juillet 2025 par Coleman Parkes Research auprès de décideurs d’usines engagées dans l’IA. Parmi eux, 91 % placent le réseau et les données au centre d’arbitrages, 31 % les jugent décisifs et 75 % préparent d’ici 2028 une stratégie de stockage des données.
Les répondants décrivent des volumes d’informations et un tissu d’applications IA distribué entre sites de production, cloud et edge, ce qui impose des décisions techniques sur la façon de connecter, déplacer et protéger les flux. 96 % citent performances du réseau, 94 % transfert des données, 93 % interopérabilité, 79 % sécurité des échanges numériques pour l’IA.