Aujourd’hui plus que jamais, les organisations cherchent à obtenir un avantage concurrentiel, à offrir davantage de valeur à leurs clients, à réduire les risques et à répondre plus rapidement aux besoins de l’entreprise. Pour atteindre ces objectifs, elles doivent pouvoir accéder facilement à une vue unifiée de données fiables, cohérentes et précises — et ce, en temps réel. Cependant, l’augmentation constante du volume et de la complexité des données rend cette tâche difficile à réaliser concrètement. À mesure que les données se multiplient, les silos de données deviennent plus nombreux, ce qui complique l’intégration et l’exploitation des données provenant de sources internes et externes.
Face à ces défis, les architectures Data Fabric ont récemment émergé comme une approche incontournable. Elles permettent une visibilité précise sur l’ensemble des données de l’entreprise, tout en évitant les limites des entrepôts de données, des data lakes et des autres méthodes traditionnelles d’intégration et de gestion des données. Elles peuvent transformer et harmoniser à la demande des données issues de multiples sources, pour créer un référentiel unique, fiable, précis et à jour au service de tous les utilisateurs de l’entreprise.
Les Smart Data Fabrics vont encore plus loin en intégrant une large gamme de fonctionnalités analytiques, telles que l’exploration de données, la business intelligence, le traitement du langage naturel, le machine learning et même l’IA générative. Cette approche permet aux organisations de générer de nouvelles insights et d’alimenter des services et applications intelligents à forte valeur ajoutée.
Nous recevons fréquemment des questions sur la manière dont les architectures Data Fabrics peuvent être utilisées pour répondre à des problématiques propres à chaque secteur. Vous trouverez ci-dessous des réponses aux onze questions les plus fréquemment posées.
La gouvernance des données et la Data Fabric sont liées, mais elles sont fondamentalement différentes. La gouvernance des données est un ensemble global d’initiatives visant à définir et à faire respecter la qualité, l’utilisation et la sécurité des données au sein d’une organisation. Elle englobe des politiques, des normes, des processus, des règles, des rôles et responsabilités, des droits d’accès, et bien plus encore. À l’inverse, une Data Fabric est un modèle architectural dont l’objectif est d’unifier l’ensemble des données et des métadonnées de l’organisation, afin de rendre les données plus faciles à localiser, à accéder et à exploiter. La Data Fabric peut constituer un élément clé pour assurer le succès d’un programme de gouvernance des données.
Bien que les organisations de services financiers nous sollicitent avec une grande variété de problèmes liés à la disparité des données, la solution principale pour toutes consiste à adopter une architecture de données moderne qui garantit à tous les consommateurs de données l’accès à un ensemble cohérent d’informations précises, actuelles, fiables et sécurisées.
De manière générale, une Data Fabric propose une approche moderne permettant de créer une source unique de vérité à partir de l’ensemble des sources de données déconnectées, disparates et hétérogènes, internes comme externes à l’organisation. Cette architecture alimente tous les consommateurs de données — qu’il s’agisse des utilisateurs métier, des applications, des data scientists, des clients, des régulateurs, etc. Elle fournit également une couche de métadonnées cohérente et unifiée, ainsi qu’une couche sémantique qui préserve les relations entre les différentes données et métadonnées.
Une Data Fabric permet d’éliminer les erreurs et redondances causées par la multiplication de référentiels distincts utilisés par différents types de consommateurs. Elle doit permettre de persister ou de virtualiser les données selon les besoins, de gérer les flux de données en temps réel ainsi que les traitements batch à grande échelle, de prendre en charge nativement une grande variété de types de données, y compris les données non structurées (multi-modèle), et d’intégrer des fonctions d’analyse avancée en temps réel, sans qu’il soit nécessaire de déplacer les données vers un autre environnement analytique (Smart Data Fabric).
Le CTO de Harris Associates, une société de gestion d'actifs, a souligné l'importance de créer une source unique de vérité couvrant toutes les sources de données pour servir l'ensemble des utilisateurs. Ayant expérimenté diverses technologies de gestion des données,
il a déclaré :
« Je travaille avec les données depuis 25 ans. Nous avons essayé plusieurs solutions. Nous avons enfin trouvé quelque chose qui fonctionne. »
L’un des principaux atouts de la Data Fabric est qu’elle ne perturbe pas l’infrastructure technique existante d’une organisation. Elle s’intègre aux technologies déjà en place — applications, flux de données, bases de données, entrepôts de données, data lakes, etc. — sans nécessiter de remplacement radical ou de refonte complète. Une bonne méthode de mise en œuvre consiste à définir des projets bien cadrés, capables de générer une valeur métier mesurable à court terme (en quelques semaines ou mois), en exposant et connectant des données susceptibles d’être réutilisées pour de futurs projets. Il s’agit d’avancer de manière incrémentale, en évitant les projets « big bang » étalés sur plusieurs années. Pour ceux d’entre nous qui ont de l’expérience, c’est exactement l’approche que nous avions adoptée pour les initiatives d’architecture orientée services à la fin des années 90 et au début des années 2000.
Il existe de nombreuses façons de mettre en œuvre une Data Fabric. Une approche consiste à assembler et intégrer une multitude de solutions ponctuelles de gestion des données : gestion de bases relationnelles et non relationnelles, intégration, couche de cache, catalogage de données, workflows, outils de business intelligence, apprentissage automatique, gestion des métadonnées et des données sémantiques, etc. Nous avons constaté que les organisations qui adoptent cette approche se retrouvent généralement avec une architecture complexe et inefficace, lente à déployer, difficile à maintenir, peu performante et consommatrice de ressources. À l’inverse, il est recommandé d’opter pour une plateforme de données offrant un large éventail de fonctionnalités intégrées dans un seul produit ou une seule solution. L’un de nos clients, un éditeur de logiciels fintech générant 5 milliards de dollars de chiffre d’affaires, a pu remplacer huit technologies différentes par un seul de nos produits, obtenant ainsi des performances multipliées par neuf, avec seulement 30 % des ressources d’infrastructure initiales, et une architecture nettement plus simple.
Absolument ! Les chaînes d’approvisionnement sont un domaine idéal pour la Data Fabric, car elles sont vastes, disparates et complexes, impliquant de nombreuses organisations différentes, chacune avec ses propres données et piles applicatives hétérogènes. Les organisations ont besoin d’une visibilité en temps réel sur l’ensemble du continuum allant de la chaîne d’approvisionnement à la distribution afin de comprendre facilement le statut de millions, voire de milliards de composants, et de réagir immédiatement aux problèmes et perturbations inattendus.
Gérer rapidement et efficacement les perturbations est la priorité numéro un dans les opérations de la chaîne d’approvisionnement. Les perturbations sont fréquentes et représentent l’un des problèmes les plus complexes auxquels une organisation doit faire face. Une tour de contrôle intelligente doit non seulement offrir une visibilité en temps réel de bout en bout, mais aussi fournir des analyses prédictives sur la probabilité de perturbations, évaluer leur impact sur l’entreprise, et proposer un ensemble d’options prescriptives basées sur les données pour prévenir les perturbations potentielles à l’avance ou les gérer en temps réel lorsqu’elles surviennent. Par exemple, les événements géopolitiques, les pénuries de main-d’œuvre, les défaillances d’approvisionnement, les conditions météorologiques et l’évolution rapide de la demande des consommateurs peuvent tous affecter l’offre et la demande. Les organisations peuvent accélérer la prise de décision fondée sur les données en tirant parti d’une Data Fabric intégrant des capacités analytiques, afin d’atteindre un niveau supérieur de support décisionnel et d’automatisation des résultats.
Oui, tout à fait. La majorité des organisations adoptent une stratégie de plateforme de données axée sur l’« analytique et l’intelligence décisionnelle » pour atteindre leurs objectifs de transformation digitale de la chaîne d’approvisionnement. Cela nécessite une architecture moderne capable d’harmoniser et de normaliser les données issues de sources disparates en temps réel, de simuler les processus métier, et de fournir des capacités d’intelligence artificielle et d’apprentissage automatique afin de permettre une prise de décision optimisée et dynamique au niveau des lignes métier. En pratique, il existe des modèles standards de maturité digitale dans l’industrie qui servent de guide. La progression commence par la compréhension des besoins organisationnels et des indicateurs clés de performance (KPI), puis par l’utilisation d’une architecture Data Fabric de base et le développement de processus permettant d’évoluer progressivement vers des niveaux supérieurs de maturité digitale, aboutissant à une chaîne d’approvisionnement prédictive, autonome et adaptative.
Bien sûr, nous disposons de nombreux exemples de clients qui utilisent une Data Fabric intelligente dans la chaîne d’approvisionnement pour obtenir des résultats remarquables. L’un de nos clients est le plus grand grossiste de médicaments et de cosmétiques au Japon. Ils distribuent 50 000 produits différents provenant de 1 000 fabricants différents à 400 détaillants qui exploitent plus de 50 000 points de vente chaque année. Cela représente un total de 3,5 milliards de produits chaque année ! Grâce à cette approche, ils atteignent un taux de livraison « On Time In Full » (OTIF) de 99,999 %, contre une moyenne sectorielle d’environ 65 %. Cela signifie que pour 100 000 produits livrés, 99 999 le sont à la fois dans les délais et en quantité complète. C’est une performance incroyable.
L’industrie 4.0 consiste à numériser l’environnement de fabrication et à permettre la convergence OT/IT pour rationaliser l’ensemble de la chaîne de processus et améliorer l’efficacité ainsi que la réactivité. Il ne s’agit pas seulement de créer des jumeaux numériques pour l’usine. Une Data Fabric peut couvrir la chaîne allant de l’approvisionnement à la fabrication, à l’assemblage et à la distribution, incluant la gestion de la chaîne d’approvisionnement (SCP), la planification des ressources de fabrication (MRP), le système d’exécution de la production (MES), la gestion des ressources d’entreprise (ERP), la gestion de la relation client (CRM), la gestion du cycle de vie des produits (PLM), la gestion des stocks, et bien plus encore, pour offrir une visibilité véritablement de bout en bout. Et tout comme pour la chaîne d’approvisionnement, une Data Fabric intelligente intégrant des capacités avancées d’analyse peut fournir des analyses prédictives et prescriptives, par exemple pour anticiper la maintenance préventive afin de maintenir en fonctionnement les lignes de production critiques, équilibrer l’offre avec les fluctuations prédites de la demande, et optimiser le personnel.
Nous observons également de nombreuses applications concrètes de la Data Fabric chez nos clients du secteur de la santé. L’un de nos clients, un centre hospitalier universitaire, avait besoin d’un point d’entrée centralisé pour permettre aux utilisateurs internes et externes d’accéder à l’information, dispersée dans les nombreux silos de données de l’organisation. La Data Fabric joue ici le rôle de couche de service API, permettant aux utilisateurs autorisés et autres clients d’accéder à l’information en temps réel pour alimenter des applications en temps réel qui accèdent à des données réparties entre leur entrepôt de données d’entreprise, leur data lake, leur dossier médical électronique (EMR) et d’autres silos. Pour répondre aux exigences réglementaires, ils utilisent la Data Fabric comme façade FHIR pour les données relationnelles stockées dans leur entrepôt de données d’entreprise. Le centre hospitalier tire également parti de la Smart Data Fabric en tant que couche d’analyse, permettant aux analystes et aux outils d’analyse d’explorer et de produire des rapports à partir de données issues de différentes sources, en combinant des informations quasi temps réel avec des données stockées à long terme. Cela permet d’obtenir des analyses plus actuelles et de révéler de nouveaux insights et modèles qui auraient autrement été enfouis dans les silos de données.
De nombreux analystes du secteur recommandent l’architecture Data Fabric comme l’approche privilégiée pour de nombreux cas d’usage, en particulier lorsqu’il s’agit de gérer un grand volume de données disparates et hétérogènes. Cependant, il peut être difficile de savoir par où commencer. Nous recommandons aux équipes techniques de travailler en étroite collaboration avec les parties prenantes des métiers afin d’identifier les cas d’usage apportant le plus de valeur à l’organisation, puis de les mettre en œuvre sous forme de sprints, chacun générant une valeur métier mesurable. Nous conseillons également de s’entourer d’un partenaire de confiance ayant une expérience avérée auprès d’organisations similaires et sur des cas d’usage comparables, afin d’accompagner la stratégie, partager les bonnes pratiques et assurer la mise en œuvre.