La maturité IA n'est pas un problème de technologie. C'est un problème de culture mesurable.

images/header.png
Retour

29 avril 2026

Pourquoi les DRH sont en première ligne du déploiement IA – et comment objectiver ce que les tableaux de bord techniques ne voient pas.

Pourquoi les DRH sont en première ligne du déploiement IA – et comment objectiver ce que les tableaux de bord techniques ne voient pas.

Les DSI ont déployé les outils. Les directions générales ont voté les budgets. Et pourtant, dans la majorité des organisations, l’IA reste cantonnée à une poignée d’usages individuels, opaques, parfois non conformes. Le sujet n’est plus de savoir si l’IA est disponible. Il est de savoir si l’organisation est culturellement prête à l’absorber.

C’est précisément ce que la fonction RH est aujourd’hui la mieux placée pour objectiver.

La maturité IA, en une phrase

La maturité IA d’une organisation est sa capacité réelle à adopter, industrialiser et sécuriser l’usage de l’IA dans le travail quotidien – pas l’intensité de ses annonces, ni le nombre de licences déployées. Elle se mesure sur trois couches : adhésion humaine, capacitation et cadre, usage et impact. Une organisation peut être avancée sur l’une et défaillante sur les autres. C’est ce déséquilibre qui fait dérailler les projets IA, pas le manque d’outils.

« Les organisations confondent encore trop souvent l’usage de l’IA avec sa maturité. Avoir des collaborateurs qui utilisent ChatGPT n’est pas la preuve d’une organisation prête. C’est parfois exactement le contraire : un signal de risque non maîtrisé. » – Yohan Ruso, CEO Praditus

L’écart entre adoption affichée et valeur réelle : ce que disent les chiffres

L’adoption de l’IA progresse vite. La capacité à en tirer de la valeur, beaucoup moins. Le décalage est désormais documenté.

Indicateur Valeur Source
Organisations utilisant l’IA dans au moins une fonction 88 % McKinsey, State of AI 2025
Organisations ayant commencé à passer l’IA à l’échelle ~1/3 McKinsey, State of AI 2025
Organisations rapportant un impact mesurable sur l’EBIT 39 % McKinsey, State of AI 2025
Organisations ayant fondamentalement repensé leurs workflows 21 % McKinsey, State of AI 2025
« High performers » captant une valeur significative de l’IA 6 % McKinsey, State of AI 2025

Source : McKinsey, The State of AI in 2025: Agents, Innovation, and Transformation, novembre 2025

Le verdict est sans ambiguïté : l’adoption est devenue universelle, la maturité reste exceptionnelle. La quasi-totalité des organisations utilise l’IA. Une sur trois seulement la déploie à l’échelle. Une sur cinq seulement repense ses processus en conséquence.

Le coût caché : quand l’usage non maîtrisé devient une dette de risque

Le second décalage est plus inquiétant : l’écart entre ce que les organisations pensent gouverner et ce qui se passe réellement dans le travail quotidien.

Indicateur Valeur Source
Salariés utilisant des outils IA non approuvés par leur employeur 78 % WalkMe (SAP), AI in the Workplace Survey 2025
Salariés ayant partagé des données sensibles avec une IA sans autorisation 38 % IBM Think, What Is Shadow AI
Salariés déclarant que les règles d’usage de l’IA sont peu claires ~50 % Programs.com, Shadow AI Statistics
Surcoût moyen d’une violation de données liée au shadow AI +670 000 $ IBM, Cost of a Data Breach Report (cité par Programs.com)

Sources : WalkMe / SAP, août 2025 ; IBM, What Is Shadow AI

Trois chiffres résument l’enjeu RH : huit salariés sur dix utilisent des outils non approuvés, près de quatre sur dix ont partagé des données sensibles, et la moitié déclare ne pas comprendre les règles. Ce n’est pas un problème technique. C’est un problème de culture, de formation, et de cadre.

« Une charte IA non comprise vaut moins qu’une charte simple appropriée. Les organisations qui réduisent leur exposition au shadow AI ne sont pas celles qui interdisent le plus, ce sont celles qui forment le mieux. » – Yohan Ruso, CEO Praditus

Pourquoi les DRH sont au cœur du sujet

L’IA ne transforme pas un système d’information : elle transforme un système de travail. Les rôles se déplacent vers la supervision, la validation, le pilotage. Les compétences attendues changent. La latitude d’usage devient un sujet managérial. Et la conformité – données personnelles, propriété intellectuelle, biais – repose sur des comportements humains, pas sur des règles écrites.

Trois constats reviennent dans les organisations qui peinent à passer à l’échelle :

Aucun de ces trois constats n’est un problème technique. Tous relèvent du périmètre RH.

Les trois confusions qui bloquent la lecture de la maturité IA

Avant tout exercice de mesure, il faut nommer les biais d’analyse les plus fréquents. La plupart des organisations interprètent leur maturité IA à travers un seul prisme – et tirent des conclusions fausses.

Confondre usage et maturité. Le fait que vos collaborateurs utilisent ChatGPT ne signifie pas que votre organisation maîtrise l’IA. Sans cadre de validation, sans réflexe critique sur les sorties, sans connaissance des outils autorisés, l’usage est un signal faible – voire un facteur de risque.

Confondre gouvernance et adoption. Une charte IA, un comité éthique et une politique de privacy ne créent pas de la maturité tant qu’ils ne sont pas compris et tenus dans les pratiques quotidiennes. La distance entre la règle écrite et le geste réel est l’angle mort le plus coûteux.

Confondre stratégie et exécution. Une vision IA portée par la direction générale n’est pas une trajectoire d’adoption. Sans ressources allouées, données exploitables, accompagnement managérial, la stratégie reste déclarative.

Lire la maturité IA exige donc un modèle qui combine ces trois couches. Aucune ne suffit seule.

Un cadre en 7 piliers pour objectiver la maturité IA

Le AI Culture Readiness Index développé par Praditus s’appuie sur sept piliers, conçus pour couvrir les trois couches sans redondance. Chaque pilier répond à une question opérationnelle que les DRH se posent – ou devraient se poser.

Pilier 1 – Perception des bénéfices de l’IA (adhésion, appropriation, empowerment)

Mesure l’existence d’un terrain favorable à la diffusion : présence de champions informels, enthousiasme managérial, latitude d’usage, sentiment de maîtrise. Sans ce socle, l’IA reste perçue comme un programme imposé, avec un risque de rejet ou de contournement. Ce que cela révèle pour la DRH : la capacité de diffusion organique et les zones où l’accompagnement doit être renforcé.

Pilier 2 – Formation IA (capacité, montée en compétences, sécurité d’usage)

Évalue si la formation porte simultanément sur l’efficacité d’usage et sur la sécurité (données, confidentialité, bonnes pratiques). Une formation centrée uniquement sur la productivité augmente mécaniquement la surface de risque. Ce que cela révèle : si le dispositif de formation est crédible, prioritaire et réellement accessible (temps dédié, pas seulement contenu disponible).

Pilier 3 – Culture d’expérimentation (apprentissage, innovation, qualité des données)

Mesure le droit à tester, échouer, partager – et surtout la qualité des données disponibles. Un point souvent sous-estimé : la valeur réelle de l’IA est plafonnée par l’accessibilité et la fiabilité des sources internes. Le frein principal n’est pas toujours culturel ; il est parfois structurel.

Pilier 4 – Gouvernance IA (conformité, maîtrise des risques, règles de décision)

Couvre la protection des données, la propriété intellectuelle, la compréhension des limites de l’IA (biais, hallucinations), le cadre éthique et – point critique – la réalité du shadow AI. C’est le pilier qui mesure la distance entre la règle et la pratique. Ce que cela révèle : la surface de risque réelle de l’organisation et les actions prioritaires à engager (charte, parcours privacy/IP, garde-fous, contrôles).

Pilier 5 – Leadership et vision IA (alignement stratégique et capacité d’exécution)

Évalue la disponibilité des moyens, la clarté de la stratégie, et surtout l’engagement visible de la direction. Les dirigeants qui prescrivent une transformation sans s’y engager personnellement émettent un signal contre-productif que les équipes captent immédiatement.

« On ne demande pas à une organisation de transformer ce que ses dirigeants n’incarnent pas eux-mêmes. C’est probablement le facteur le plus prédictif d’un déploiement IA qui décolle – ou qui s’enlise. » – Yohan Ruso, CEO Praditus

Pilier 6 – Conduite du changement IA (acceptabilité, transformation des métiers)

Mesure la qualité de l’accompagnement de la transition, la communication sur les impacts métiers, la reconnaissance et le traitement des résistances, l’identification des évolutions de compétences. C’est le pilier qui prédit le mieux les frictions de déploiement.

Pilier 7 – Usage réel de l’IA (niveau, esprit critique, impact, confiance)

Vérifie la maturité dans les pratiques observables : fréquence d’usage, sophistication, capacité à valider les sorties, impact mesuré sur la productivité, confiance dans les outils. C’est le test final. Une organisation peut afficher de bons scores sur les six piliers précédents et révéler des angles morts ici. C’est aussi le pilier qui empêche de conclure à la maturité sur la base d’intentions ou de gouvernance seules.

Lire les résultats : quatre patterns critiques à connaître

L’intérêt du modèle ne réside pas dans chaque pilier pris isolément, mais dans la lecture croisée. La table ci-dessous synthétise les quatre combinaisons les plus fréquemment rencontrées sur le terrain – et les actions qu’elles imposent.

Combinaison observée Diagnostic Risque dominant Action prioritaire DRH
P1 fort + P2 faible Enthousiasme non sécurisé Shadow AI, fuite de données Plan de formation prioritaire intégrant privacy et IP
P5 fort + P6 faible Vision claire, exécution bloquée Démobilisation, cynisme managérial Conduite du changement, leadership visible terrain
P4 fort + P7 faible Règles écrites, usages absents ROI invisible, désinvestissement Appropriation, démonstration de valeur
P3 faible isolément Frein structurel sur les données Valeur IA plafonnée mécaniquement Chantier données avant tout investissement humain

Cette grille évite le piège classique du score global, qui agrège des réalités opposées et masque les vrais points de blocage. Une organisation peut afficher un score moyen rassurant tout en cumulant deux patterns à risque élevé.

Ce que ce type de mesure change pour une DRH

Mesurer la maturité IA via un cadre culturel, plutôt que via des KPI techniques, change trois choses dans la pratique RH :

Cela transforme un sujet flou en plan d’action. Les recommandations cessent d’être génériques. Elles deviennent ciblées par pilier, par population, par site.

Cela donne un langage commun avec la DSI et la direction générale. La RH n’arrive plus avec des intuitions, mais avec des données comparables, dans un cadre structuré.

Cela permet de mesurer la trajectoire dans le temps. La maturité IA n’est pas un état, c’est un mouvement. Un index répété sur 12 ou 24 mois rend visible ce que les enquêtes ponctuelles ratent.

Le prochain mouvement utile

Si une seule action devait être engagée, ce serait celle-ci : objectiver, sur un périmètre pilote, la maturité IA réelle de l’organisation avec un modèle structuré. Pas un sondage de satisfaction. Pas un audit technique. Une mesure culturelle, comparable, actionnable.

Le AI Culture Readiness Index de Praditus est conçu pour ce cas d’usage – déploiement rapide sur un périmètre cible, restitution par pilier, recommandations différenciées par population. Demander une démonstration sur un cas concret est généralement le moyen le plus efficace de juger si le cadre est adapté à votre contexte.

FAQ – Maturité IA en entreprise

Qu’est-ce que la maturité IA d’une organisation ?

La maturité IA d’une organisation est sa capacité réelle à adopter, industrialiser et sécuriser l’usage de l’intelligence artificielle dans le travail quotidien. Elle ne se mesure pas au nombre d’outils déployés ni au volume d’usage, mais à l’alignement de trois couches : l’adhésion humaine (appropriation par les collaborateurs), la capacitation et le cadre (compétences, gouvernance, leadership), et l’usage effectif avec impact mesurable. Selon le rapport McKinsey State of AI 2025, 88 % des organisations utilisent l’IA mais seules 6 % en captent une valeur significative – l’écart se joue précisément sur la maturité, pas sur la technologie.

Comment mesure-t-on concrètement la maturité IA d’une entreprise ?

La maturité IA se mesure à l’aide d’un index structuré qui évalue plusieurs dimensions complémentaires. Le AI Culture Readiness Index de Praditus utilise un cadre en 7 piliers : perception des bénéfices, formation IA, culture d’expérimentation, gouvernance, leadership et vision, conduite du changement, et usage réel. Chaque pilier est mesuré via un questionnaire psychométrique déployé auprès des collaborateurs, puis restitué par population et par site. La lecture est toujours croisée, jamais en score global, pour éviter les faux positifs (par exemple, une organisation où l’usage est élevé mais la gouvernance défaillante).

Quelle est la différence entre adoption de l’IA et maturité IA ?

L’adoption de l’IA mesure le pourcentage de collaborateurs qui utilisent au moins un outil d’IA. La maturité IA mesure la capacité de l’organisation à en tirer de la valeur de manière sûre, conforme et durable. La distinction est critique : le rapport WalkMe 2025 indique que 78 % des salariés utilisent des outils IA non approuvés par leur employeur, et 38 % ont partagé des données sensibles sans autorisation (source IBM). Une organisation peut donc afficher une adoption massive tout en présentant une maturité faible – c’est exactement la configuration qui produit du shadow AI et expose à des incidents de fuite de données.