Décrypter la mutualisation numérique : pourquoi & comment la mesurer ?

La mutualisation numérique n’est plus un concept émergent : c’est une réalité qui façonne la transition digitale des territoires. De la gestion des serveurs à la mise en commun des outils métiers, les dynamiques collaboratives entre intercommunalités, départements ou régions se multiplient. Mais derrière le mot d’ordre de « faire ensemble », une question s’impose : comment s’assurer que la mutualisation tient ses promesses, entre gains économiques attendus, efficacité des services publics et meilleure inclusion des usagers ?

Évaluer l’efficacité de la mutualisation numérique, c’est répondre aux élus, aux DSI, aux agents et aux citoyens : le jeu en valait-il la chandelle ? Pour apporter des éléments tangibles, il faut sortir de l’évaluation à l’aveugle, des impressions ou des simples comparaisons budgétaires, pour construire un diagnostic robuste, outillé et partagé.

De la théorie à la réalité : pourquoi la mutualisation numérique séduit

L’appel à la mutualisation a explosé dans les collectivités : plus de 65% des intercommunalités françaises pratiquent aujourd’hui une forme de mutualisation numérique (étude AdCF, 2023). Logiciels partagés, plateformes d’administration en ligne, équipes techniques communes : tout cela crée de véritables synergies. Les incitations réglementaires, par exemple la loi NOTRe (2015) ou la feuille de route numérique territoriale, poussent à franchir le pas et à construire une « intelligence collective » numérique.

Plusieurs motivations expliquent l’essor la mutualisation :

  • Réduction des coûts d’achat et d’entretien des solutions logicielles
  • Renforcement de la cybersécurité par la centralisation des expertises
  • Montée en compétences partagée des agents
  • Meilleure qualité de service aux usagers grâce à des outils plus adaptés
Mais réussir une mutualisation va au-delà d’un bilan financier. L’efficacité doit aussi se lire à travers la qualité des services, l’innovation permise, la simplification administrative ou l’impact social.

Identifier les objectifs et points névralgiques de l’évaluation

Un écueil fréquent est de mesurer l’efficacité sans définir au préalable ce que l’on souhaite observer : économies, robustesse technique, capacité à innover, transformation des pratiques ? Chaque projet de mutualisation numérique a ses propres finalités. Pour éviter les indicateurs « cosmétiques », il s’agit d’associer l’évaluation dès la genèse du projet, en intégrant les attentes des différentes parties prenantes (services métier, élus, direction informatique, usagers…).

Quelques exemples d’objectifs fréquemment ciblés :

  • Diminution du coût global de possession (TCO) des solutions
  • Augmentation du taux d’adoption par les utilisateurs finaux
  • Réduction du délai de mise à disposition des nouveaux services
  • Homogénéisation et sécurisation des pratiques numériques
Préciser ces objectifs en amont aide à définir les bons indicateurs et à éviter des évaluations partielles ou déconnectées du terrain.

Construire des indicateurs pertinents : des chiffres et des faits

Il n’existe pas d’indicateur unique, mais un faisceau d’éléments à considérer. Voici les catégories d’indicateurs les plus utilisées lors des retours d’expérience en collectivités et dans les rapports publiés par la Cour des comptes ou le CNFPT :

1. Indicateurs financiers

  • Économies réalisées : différence entre le coût cumulé avant/après mutualisation (ex. parc logiciel, maintenance, licences)
  • Effet d'échelle : coût par poste ou par usager, évolution du prix moyen des solutions communes
  • Capacité d’investissement dégagée : montant des ressources libérées pour d’autres projets numériques

Selon une étude du SNDGCT (2021), une mutualisation réussie peut entraîner 10 à 25% d’économies annuelles sur certains segments logiciels ou d’infrastructures (source : SNDGCT, 2021).

2. Indicateurs organisationnels et opérationnels

  • Taux de mutualisation : part des outils/sites/procédures effectivement mutualisés par rapport à l’ensemble du périmètre concerné
  • Délais de traitement opérationnel : évolution du temps nécessaire pour instruire une demande (ex : 30% de temps gagné sur certains processus, cité dans le rapport de la CDC sur la Métropole de Lyon, 2022)
  • Nombre de formations et taux de satisfaction des agents (autoévaluation, questionnaires anonymes)
  • Diminution de l’incidentologie : baisse des incidents/reportings techniques depuis la mutualisation

3. Indicateurs de qualité de service et d’inclusion

  • Taux d’adhésion des usagers : nombre d’inscriptions et d’usages effectifs des nouvelles plateformes mutualisées (ex : augmentation de 40% des démarches réalisables en ligne parmi les usagers, source Observatoire Data Publica, 2023)
  • Accessibilité des services : audits d’accessibilité numérique (exemple : conformité RGAA, taux d’usagers en situation d’illectronisme bénéficiant de dispositifs d’accompagnement)
  • Réduction des écarts territoriaux : mesure de la disponibilité du service sur l’ensemble du territoire, inclus des zones rurales (initiative du GIP de Bretagne qui a permis de diviser par deux l’écart d’accès à certains services numériques entre zones urbaines et rurales après mutualisation – source Bretagne Numérique, 2022)

4. Indicateurs de pilotage stratégique

  • Nombre de projets numériques mutualisés lancés suite à la réussite initiale
  • Temps de coordination entre directions métiers et DSI
  • Taux de renouvellement ou de satisfaction lors des enquêtes annuelles

Les sources mobilisables : entre données quantitatives et retours qualitatifs

Évaluer la mutualisation, c’est croiser plusieurs types de données :

  1. Données chiffrées issues des systèmes d’information, comptabilité analytique, centres de support
  2. Enquêtes de satisfaction auprès des agents, élus, usagers : à administrer régulièrement pour observer l’évolution des perceptions
  3. Bilan des formations, retours d’expérience et ateliers utilisateurs : pour qualifier la capacité d’appropriation et d’innovation générée par la mutualisation
  4. Analyse de scenarii comparatifs (benchmark avec d’autres territoires ou évaluation “avant/après” sur une temporalité longue)
Si le “tout chiffres” a ses limites, la multiplication des dispositifs qualitatifs (forums, ateliers, baromètres d’usages) permet souvent de mettre en perspective les résultats chiffrés avec les réalités vécues sur le terrain.

Focus sur les pièges à éviter dans l’évaluation

Plusieurs écueils classiques peuvent conduire à une lecture faussée ou incomplète de l’efficacité :

  • Se limiter aux économies à court terme : certaines mutualisations génèrent des surcoûts de mise en œuvre ou d’accompagnement initial.
  • Oublier l’impact organisationnel : la réussite ne se limite pas à la technique, mais implique l’adhésion des équipes et la conduite du changement.
  • Évaluer trop vite : les bénéfices réels (simplification, innovation, inclusion) se lisent dans la durée, parfois sur plusieurs exercices budgétaires.
  • Gommer les spécificités territoriales : il n’y a pas une mutualisation idéale. La nature du territoire (urbain, rural, ultra-marin) influence les métriques à observer.
  • Oublier les coûts cachés : gestion de l’interopérabilité, formation, renouvellement du matériel…
Des rapports d’audit (IGF, 2022 ; Cour des comptes, 2020) insistent notamment sur la nécessité d’appréhender la complexité du pilotage multi-acteurs dans l’évaluation.

Études de cas : dynamiques et résultats concrets

Quelques exemples marquants illustrent comment des territoires ont mesuré – et objectivé – la réussite de leur mutualisation :

  • Bas-Rhin (2020) : la mutualisation de la DSI entre le département et plusieurs communes a permis de diminuer de 28 % le coût global de maintenance des serveurs, mais a nécessité un investissement fort dans l’accompagnement des équipes et la création d’un centre de compétences commun (source : rapport Bas-Rhin Numérique).
  • Finistère (2022) : une enquête usagers a montré que l’accès en ligne à certains services mutualisés (comme la gestion des inscriptions scolaires) avait fait bondir de 36 % la satisfaction perçue, notamment chez les familles rurales, alors que le retour sur investissement purement financier s’étalait sur 4 ans.
  • Nouvelle-Aquitaine (2023) : le GIP régional a mis en place une évaluation mixte avec tableaux de bord partagés, ateliers utilisateurs et visualisation en temps réel des indicateurs clés, permettant une prise de décision agile et transparente (source : GIP NA).
Chacun de ces exemples montre l’intérêt de mesurer des dimensions multiples : économiques, sociales, opérationnelles et de gouvernance.

Pistes d’approfondissement : une évaluation au service de la transformation

Au-delà de l’exercice purement technique, l’évaluation de la mutualisation numérique se révèle être un levier de transformation pour les territoires. Elle interroge la capacité à collaborer localement, à réduire la fracture numérique ou à soutenir l’innovation publique. Certains territoires vont plus loin et associent les usagers ou les associations locales dans le bilan, pour mieux capter l’impact social de la digitalisation mutualisée.

Les enjeux à suivre ces prochaines années :

  • Déployer des indicateurs d’impact environnemental : la mutualisation peut aussi se traduire par une empreinte carbone réduite (datacenters mutualisés, réduction des redondances de matériel… à mesurer au cas par cas).
  • Publier ouvertement les métriques clés : la transparence devient un facteur de confiance envers les usagers et entre institutions partenaires.
  • Soutenir l’interopérabilité : au-delà de la mutualisation, la capacité à faire dialoguer les briques numériques est centrale, en particulier à l’heure des portails « FranceConnect » et des SI de santé mutualisés.
Loin d’être une fin en soi, la mesure de l’efficacité est un outil de pilotage au long cours, à enrichir au fil des usages et des retours du terrain, pour que la mutualisation numérique reste un catalyseur des transitions territoriales.

Sources : CNFPT, AdCF, Observatoire Data Publica, CDC, IGF, SNDGCT, GIP Nouvelle-Aquitaine, Rapport “Bas-Rhin Numérique”, Bretagne Numérique.

En savoir plus à ce sujet :

COPYRIGHT © lemagdesterritoiresnumeriques.com.