Les Cinq tendances en matière de gestion des données selon Denodo

0
22

Alors que 2023 a laissé place à 2024, il est impératif que les responsables de la gestion de données prennent le temps d’évaluer et, si nécessaire, d’affiner leur stratégie. Une chose est sûre : si les entreprises centrées sur la donnée veulent rester compétitives en 2024, certains aspects de la gestion des données seront essentiels.

Non seulement les utilisateurs métiers veulent être moins dépendants de l’IT dans l’année à venir, mais ils voudraient aussi contribuer davantage aux projets data et analytiques. Ils souhaitent en effet définir et créer à leur tour des data products afin de gérer la donnée en fonction de leurs besoins. Le service IT, quant à lui, doit déployer l’infrastructure adéquate pour permettre à tous les utilisateurs d’être plus autonomes.

L’Intelligence Artificielle générative (GenAI), qui ne cesse de se développer, aura à son tour un impact considérable sur la gestion des données au travers d’outils et de technologies plus adaptés pour les entreprises. Une infrastructure de gestion des données solide sera également essentielle à la réussite de l’IA générative, car sans données de qualité et fiables, elle ne sera que peu ou pas utile.

Enfin, si la migration vers le cloud, les data lakes et/ou les data warehouses dans le cloud restent des facteurs déterminants pour le succès des projets data et analytiques modernes, “l’anti-gravité” des données deviendra la norme en 2024. En effet, il deviendra de plus en plus difficile pour une entreprise de se fier à un seul fournisseur de cloud, à un seul data warehouse ou à un seul data lake physique pour répondre à tous ses besoins en matière de data & analytique en continu.

Les données seront toujours distribuées, voire plus en 2024. Les entreprises doivent donc trouver le moyen d’obtenir une vue générale de leurs données distribuées et multilocalisées ‘on premise’ et dans plusieurs clouds. Il faut donc s’attendre à ce que les tendances suivantes émergent et/ou gagnent du terrain l’année prochaine.

La notion de gravité des données n’existe plus, et désormais c’est l’anti-gravité des données qui prévaudra dans un paysage de données de plus en plus distribuées. Même si les migrations vers le cloud, les data lakes et/ou les data warehouses resteront des facteurs importants du succès des initiatives data et analytiques modernes, il sera de plus en plus difficile pour une entreprise de s’appuyer sur un fournisseur cloud unique pour répondre à tous ses besoins. C’est pourquoi l’anti-gravité des données sera la nouvelle norme en 2024 et au-delà.

Trois forces définissent l’anti-gravité des données : la technologie, la localisation et la propriété. À mesure que les data stores et les applications se déploient sur une grande échelle et que les utilisateurs métiers expriment leur volonté de maîtriser leurs données et leurs produits, l’anti-gravité des données va devenir une norme pour les données et l’analytique modernes. Les autres facteurs contribuant à l’anti-gravité des données sont l’augmentation du coût de la duplication des données, leur souveraineté, mais aussi les lois et réglementations locales en matière de gouvernance des données et la rapidité de l’analyse. L’anti-gravité des données devenant de plus en plus l’approche privilégiée, les responsables de la gestion des données devraient investir dans des technologies qui reposent sur le principe de la gestion distribuée des données.

Les data products s’imposent : ils doivent être traités au même titre que n’importe quel autre produit. Le Data mesh ou maillage des données, une approche de gestion des données distribuées, va gagner en importance à mesure que les données seront de plus en plus distribuées. Dans un contexte data mesh, les responsables métiers devront être en mesure de définir et de créer des data products et de gérer la donnée en fonction des besoins de leur domaine. Les services informatiques devront déployer une infrastructure adéquate pour permettre aux utilisateurs d’être plus autonomes.

L’année 2024 sera donc décisive pour les data products grâce à l’émergence de plateformes virtuelles unifiées qui englobent toutes ces facettes, du catalogage des données à l’expérience de l’utilisateur final, et de l’accès rapide aux données à des mesures de sécurité et de gouvernance robustes.. Ces plateformes intégrées fournissent aux entreprises les ressources dont elles ont besoin pour créer une culture des données florissante et stimuler l’adoption par les utilisateurs.

Adopter l’IA Générative (GenAI) et embrasser son succès. À l’horizon 2024, il est évident que la gestion des données jouera un rôle de plus en plus central dans l’adoption réussie de l’IA Générative. Les entreprises qui investissent de manière proactive dans un cadre de gestion des données solide seront mieux positionnées pour libérer tout le potentiel commercial de ces technologies avancées. La résolution des problèmes liés aux données ouvrira la voie à une innovation et à une croissance sans précédent, faisant de la gestion des données la pierre angulaire d’une adoption réussie de l’IA Générative.

À cette fin, il faut s’attendre à ce que le rythme de création de data products en entreprises s’accélère. Il n’est pas surprenant que l’IA Générative soit dans tous les esprits et qu’elle ait un impact considérable sur la façon dont les entreprises sont gérées. L’existence symbiotique de la gestion des données et de l’IA Générative devra devenir une priorité et il faut donc s’attendre à ce que, dans l’année à venir, le cloud computing reste non seulement répandu mais continue également de se développer. C’est pourquoi la gestion des données distribuées va s’imposer, car elle permet à chaque entreprise de prendre des décisions éclairées sur la façon de gérer les données distribuées de la manière la plus efficace et la plus rentable.

Les organisations devront gérer plus efficacement les coûts liés au Cloud. Alors que les entreprises continuent de migrer leurs infrastructures vers le cloud, elles sont confrontées à un fait indéniable : les coûts de l’informatique dématérialisée peuvent être extrêmement volatiles et difficiles à prévoir. Pour 2024, il s’agira non seulement de maîtriser ces coûts, mais aussi de le faire tout en maintenant un service de haute qualité et des performances compétitives. L’explosion des frais d’hébergement et de gestion des données dans le cloud empêche les entreprises de prévoir et de budgétiser efficacement, et les coûts auparavant fiables du stockage des données on-site sont désormais éclipsés par les grilles tarifaires volatiles du cloud.

Pour faire face à cette pression financière, les entreprises doivent analyser en profondeur les dépenses liées à l’informatique dématérialisée et rechercher des gains d’efficacité sans sacrifier les performances. Cela implique un examen détaillé des schémas d’utilisation des données, la mise en évidence des zones d’inefficacité et la prise en compte d’options de stockage plus rentables. En contrôlant régulièrement les dépenses, en prévoyant les coûts et en intégrant des principes FinOps dans la gestion du cloud, les entreprises peuvent équilibrer les économies et l’efficacité opérationnelle, en veillant à ce que leurs stratégies de données soient économiquement et fonctionnellement robustes.

La sécurité et la gouvernance des données devront être simplifiées. Des données mal intégrées ont un impact sur l’agilité d’une entreprise à de nombreux niveaux. Et c’est peut-être sur la sécurité et la gouvernance des données que cet impact se fait le plus sentir. Parce qu’il faut du temps pour mettre à jour individuellement une myriade de systèmes cloisonnés, il est impossible de sécuriser ou de gouverner tous les systèmes de l’entreprise simultanément.

Pour relever ce défi, les organisations s’appuient sur des politiques globales de sécurité et de gouvernance des données. Les politiques globales de sécurité des données peuvent être basées non seulement sur les rôles des utilisateurs, mais aussi sur leur localisation, de sorte qu’une personne en vacances ne puisse pas accéder aux données du bureau principal. Les politiques globales de gouvernance des données peuvent également normaliser automatiquement l’orthographe de certains mots dans les différents systèmes d’une entreprise.

La voie de la gestion logique ou virtuelle de données

Pour surmonter les défis inhérents à chacune de ces cinq tendances, les entreprises devront être en mesure d’exploiter des stratégies de gestion des données conçues dès le départ pour prendre en charge les données distribuées. Les approches traditionnelles de gestion des données reposent sur la duplication physique des données provenant de systèmes multiples dans un référentiel central, tel qu’un data warehouse ou un data lake, mais ces approches, par définition et également dans la pratique, ne prennent pas en charge les données distribuées de manière inhérente. En revanche, les approches de gestion logique des données permettent des connexions en temps réel à des données disparates sans réplication. Cette approche s’imposera en 2024 et au-delà, car elle permet à chaque organisation de gérer les données distribuées de la manière la plus efficace et la plus rentable possible.

Tribune par Olivier Tijou, Vice-Président EMEA chez Denodo