Data Management : quand la donnée devient le nouvel or noir du 21eme siècle

Data Management : quand la donnée devient le nouvel or noir du 21eme siècle

Data Management : quand la donnée devient le nouvel or noir du 21eme siècle

Il est maintenant clairement admis par la majeure partie des acteurs financiers que ‘la donnée’ est un actif prioritaire.

En effet, maîtriser la donnée au sein de l’entreprise est devenu une nécessité afin de répondre à diverses exigences complémentaires :

  1. La pression croissante des superviseurs : le Comité de Bâle a formulé les principes de bonne gestion des données qui nourrissent les reportings de pilotage des risques (BCBS239), la BCE de son côté a lancé son ‘Asset Quality Review ‘qui s’est attachée à qualifier dans le détail la qualité des données enregistrées par les banques pour décrire leurs engagements et leurs sûreté,
  2. Les règlementations en cours amènent également leur lot de données nouvelles (Bâle 3, Emir, FATCA, Mifid 2, DFA…) à gérer de façon fiable et auditable
  3. La transition vers la digitalisation du métier et l’explosion du volume de données à traiter par les technologies du Big Data,
  4. La recherche continue d’une meilleure performance (via la maitrise des processus et des couts métiers et SI), d’une plus grande flexibilité de l’activité de l’entreprise qui évolue dans un monde toujours plus complexe et concurrentiel,
  5. La pertinence des algorithmes de modélisation des risques (ie déterminant la consommation de ressources rares – fonds propres, actifs liquides) est conditionnée par l’existence et la qualité des données qu’ils utilisent…

La prise de conscience liée à l’enjeu de la qualité de la donnée est donc réelle, comment une organisation peut-elle faire face à ces différents enjeux si ses données stratégiques (clients, produits, actifs, fournisseurs, organisations, etc.) ne sont pas exactes, intègres et contrôlées ? Cela pousse donc les acteurs financiers à réagir pour modifier en profondeur leurs pratiques liées à la gestion et à l’administration de leurs données critiques.

On considère que plusieurs domaines stratégiques sont dépendants de la mise à disposition et du maintien des données  de qualité : la business intelligence (Data Wharehouse), la gestion des risques et conformité réglementaire, le service aux clients (outils de CRM) et la donnée de référence (MDM).

Le plus souvent organisé en mode ‘projet’ les initiatives varient en terme de priorité, de périmètre, de moyens alloués (ressources, budget), d’outillage, d’approche (souvent qualifiée de ‘Master Data Management’ ou MDM)  et de gouvernance mise en place.

On assiste néanmoins de façon convergente à la mise en place de nouvelles fonctions dédiées à la donnée, comme  la fonction de ‘Chief Data Officer’ (CDO) qui se développe  à plusieurs niveaux de l’entreprise (au niveau du groupe et/ou au sein d’un domaine particulier).

Le CDO a le mandat de ‘gouverner’ la donnée. Son rôle est d’organiser la mise à disposition et la bonne exploitation de données riches et fiables, pour une meilleure création de valeur pour l’entreprise.  Les nominations se multiplie en Europe, alors que la pratique est déjà en place aux US et au UK (85% des CDO sont dans ces 2 pays) et que 25% des grandes organisations auront un CDO en 2015 (source Gartner). Le candidat doit disposer d’une expérience solide, avoir accès au comité de direction, et va s’appuyer sur des ressources dédiées, si possible au sein d’une structure orientée qualité de la donnée.

C’est ainsi que viennent également s’ajouter les fonctions de ‘Data Owner’, ‘Data Steward’, ‘Data Scientists’ (ce dernier étant le véritable bras armé du CDO …).  Tous ces rôles devant être définis, assignés à des personnes clefs dans l’entreprise et former ainsi le  ‘Data Management Office’ (DMO). L’action du DMO s’articule autour d’une structure de gouvernance appropriée, mise en place avec le support du Top Management, comme élément clef de sa stratégie. Ce support est très important au regard du ROI difficilement quantifiable et un retour d’expérience faible sur les projets d’amélioration des données…

Data Management

L’enjeu primordial de cette gouvernance de la donnée est de fédérer les différents acteurs de l’entreprise, les métiers et fonctions support, mais aussi les filières Finances, Risques,  SI… Il faut bien évidemment dépasser le périmètre local de la donnée pour maîtriser les processus inter-entités afin de garantir la qualité, la cohérence et la maîtrise de l’usage de la donnée à l’échelle de l’entreprise. Une difficulté majeure sera donc de décloisonner les silos existants, cloisonnement qui se caractérise par la dispersion de ces données de référence entre de multiples entités, de multiples outils informatiques, entrainant incohérences et difficultés de consolidation.

La convergence des acteurs doit se faire autour d’actes ‘stratégiques’ à la hauteur des enjeux, par la mise en place d’une feuille de route qui vise à :

  • définir une véritable stratégie de la donnée, dont les enjeux et les objectifs sont partagés
  • décider des niveaux de risques acceptables (liés à la non-qualité de la donnée)
  • fixer ensemble les orientations, investir sur des initiatives prioritaires et ciblées, car porteuses de valeur pour l’entreprise
  • définir les modalités de suivi de la performance et de la conformité aux objectifs fixés
  • sensibiliser les acteurs sur l’ensemble du cycle de vie de la donnée, en promouvant une culture « Qualité des données » – le banquier, qui intervient dans le processus de gestion bancaire, n’est pas un spécialiste de l’assurance qualité…

Une fois ces ‘actes stratégiques’ fixés, quelle approche pour conduire un projet de mise sous ‘gouvernance’ de la donnée ? La gouvernance des données stratégiques, ou données de référence, consiste en un ensemble cohérent de règles, de contrôles et d’outils permettant de garantir que les données ont été produites, revues, traitées, sécurisées et transmises selon des processus conformes aux exigences réglementaires.

Même si chaque acteur décline son projet ou programme plus vaste de façon particulière, les points ci-dessous sont communs à la plupart de ces approches liées à la donnée, et sont pertinents :

  • Connaissance de la donnée : définition bancaire, qui sont les propriétaires de ces données ? disposer d’un dictionnaire des données métier,
  • Connaissance du cycle de vie de la donnée : quels sont les processus associés à la donnée (collecte, ‘origination’, maintenance, contrôle, protection, partage et analyse), quels sont les autres acteurs (au-delà du propriétaire), leurs  droits et devoirs sur la donnée, quels sont les systèmes impliqués et les règles de gestion en place (cartographie et dictionnaire de règles)
  • Définition d’un cadre structuré et diffusé de communication autour des données regroupant tous les acteurs identifiés (entre « propriétaires », « consommateurs », « architectes IT »…)
  • Représentation communes de la donnée au sein de l’entreprise : modélisation, langage commun formalisé déterminant pour la communication autour des données, incluant un ‘data mapping’ qui permet d’harmoniser les échanges de données entre plusieurs métiers ou applications
  • Identification des ‘Référentiels’ des données qui garantissent la disponibilité en un point unique et partagé d’une donnée à forte plus-value (exemple : référentiel Organisations & Structures, Clients, Tiers, Activités, Produits, Transactions…)
  • Formalisation de la politique de ‘sécurité de la donnée’ : conditions d’accès, contrôles (à-priori et à postériori), traçabilité, disponibilité et auditabilité
  • Chantier de mise en qualité des données : quelles sont les problèmes de non-qualités ? Leurs causes origines et les coûts induits ? Quels nettoyages à lancer ? Quels risques associés aux données ? Définir le niveau d’exigences de qualité et les indicateurs de contrôle associés (via des tableaux de bord), il est primordial d’objectiver le niveau de qualité
  • Poser un diagnostic sur le niveau de maturité de la gouvernance des données : pratiques en place et niveau de connaissance de données, des règles et des rôles de chacun

Tous les éléments ci-dessus vont constituer un ‘ socle’ permettant la formalisation des politiques, normes, procédures,  des instances de pilotage et de reporting  de la future gouvernance.

Le ‘DMO’ (cf. plus haut) va devoir assurer la diffusion de ce socle via la sensibilisation et formation  des équipes et la maintenance de ses composants (notion de ‘continuous improvement’).

On assiste également à un accompagnement significatif de cette évolution par le marché des solutions logicielles. En 2012, le marché des logiciels de gestion des données de référence (MDM) a enregistré une croissance de 21 % selon le cabinet Gartner, pour atteindre 1,9 milliard de dollars. Ce dernier prévoit qu’en 2015 le marché dépassera les 3 milliards de dollars.

Les solutions doivent venir compléter l’approche et les chantiers cités ci-dessus. Ils facilitent ce type de projet mais ne font pas tout…Il y a différents outils pour accompagner ces sujets, ils couvrent : Les modèles de gouvernance des données, La modélisation des données et des processus, le profilage des données,  la qualité de la donnée (mesure, rémédiation, reporting),  la gestion des métadonnées, la gestion des données de référence, les entrepôts de données et ETL.

En complément, la mise en place de solution de ‘workflows’, contrôlant l’enchainement des taches affectées aux acteurs de la donnée, eux-mêmes authentifiés sur leur périmètre propre, assurent l’intégrité et la standardisation des processus de production des données stratégiques. En outre, les mécanismes standards d’historisation et de traçabilité garantissent que l’entreprise sera en capacité d’apporter les preuves des manipulations effectuées sur les données et de faire face aux audits sur les méthodes et circuits de genèse de l’information

Ces outils sont clairement à intégrer dans la stratégie globale de gouvernance de la donnée, leur efficacité sera néanmoins totalement liée à la qualité des politiques, processus, organisations mis en place en amont pour définir les besoins…

En conclusion,  une initiative de ‘gouvernance de la donnée’ est complexe, elle requière des actions sur les ressources, l‘organisation, les processus et les systèmes. Examiner le traitement d’une donnée de bout en bout met souvent en évidence des disfonctionnement profonds, anciens et disséminés dans l’entreprise. De plus, les intérêts divergents des acteurs impliqués, le foisonnement des systèmes, et la grande diversité des pratiques en place ajoutent à cette complexité.

La transversalité de ce type de problématique est un frein naturelle à l’émergence de solutions partagées, pour mutualiser les données de référence ou pour définir des indicateurs de qualité globaux. En conséquence, la transformation autour de la donnée doit être portée par un champion soutenu par les dirigeants de l’entreprise, c’est le mandat du CDO que nous avons présenté ci-avant.

La réussite de ce type de projet n’est donc possible que si les dirigeants de l’entreprise, eux-mêmes conscients de la valeur des données, sponsorisent l’initiative et s’impliquent dans les instances de gouvernance des données. Comme vu ensemble, un système de gouvernance formelle des données associé à  un réseau actif de professionnels de la qualité des données (le ‘DMO ‘) sont un complément nécessaire à la réussite.

Pour finir, les acteurs financiers qui se lancent dans la mise en œuvre de la gouvernance de leurs données critiques, qu’ils considèrent donc comme un actif à part entière,  auront pris un avantage décisif sur leurs concurrents, en se dotant de la capacité à répondre à toutes les exigences que nous rappelions en début d’article, à bon entendeur…

 

 

0 Avis

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*