Page d'accueil d'OpenText.
Thèmes techniques

Qu'est-ce qu'un "data lakehouse" ?

Illustration des éléments informatiques avec un point d'interrogation en point de mire

Présentation

Un lac de données permet aux entreprises de gérer efficacement des volumes de données croissants, de renforcer la sécurité des données, de réduire les coûts de stockage des données et de tirer parti de la GenAI et de l'intelligence économique. Découvrez le fonctionnement des data lakehouses, les principaux avantages de l'adoption d'une architecture de data lakehouse et comment vous pouvez accéder à l'analyse en temps réel et à l'apprentissage automatique quel que soit l'endroit où les données sont stockées - dans un data lakehouse, un entrepôt de données ou un lac de données.

Le rapatriement de l'informatique dématérialisée : Ce que les données nous apprennent

Découvrez pourquoi plus de 200 responsables informatiques repensent les stratégies de cloud computing pour leurs entrepôts de données et optent pour des déploiements sur site, de cloud privé ou hybrides afin de récupérer des performances.

Télécharger le guide

Data lakehouse

Qu'est-ce qu'un "data lakehouse" ?

Un data lakehouse est une plateforme de gestion des données qui réunit les aspects d'un entrepôt de données et d'un lac de données avec des avantages supplémentaires en termes de performance, de sécurité et de flexibilité. Un data lakehouse est essentiellement un entrepôt de données très performant, capable de prendre en charge tous les types de données (structurées, non structurées et semi-structurées) avec des outils de traitement de données intégrés. Il en résulte une base de gestion des données unique et puissante qui alimente le traitement des données pour l'IA et l'analyse avancée.

Les innovations en matière d'architecture de data lakehouse ont favorisé l'adoption, également stimulée par la nécessité de gérer plus efficacement des volumes croissants de données diverses, de combler le fossé entre un data lake et un data warehouse, et de fournir une IA et une intelligence d'affaires fiables.


En quoi les lacs de données, les entrepôts de données et les entrepôts de données sont-ils différents ?

Bien qu'un data lakehouse, un lac de données et un entrepôt de données soient tous des référentiels de données, chacun présente des différences distinctes et des cas d'utilisation pertinents. Comparons les trois approches de données.

Un entrepôt de données permet de centraliser le stockage de données structurées et de regrouper en un seul endroit des données provenant de sources multiples. Les entrepôts de données permettent donc de décloisonner l'information et offrent aux utilisateurs un accès rapide aux données et la possibilité de les interroger pour générer des rapports et des informations. Les entrepôts de données prennent en charge l'exploration et l'analyse des données ainsi que la veille stratégique, ce qui permet aux organisations de comprendre les performances de l'entreprise, de découvrir des tendances et de prendre des décisions plus éclairées.

Cependant, les entrepôts de données ne sont pas sans poser de problèmes, les processus ETL (extraction, transformation et chargement) complexes augmentant les exigences en matière de gestion et entraînant une hausse des coûts. En outre, les entrepôts de données hors cloud peuvent avoir du mal à s'adapter à la croissance des données de l'entreprise et aux nouveaux cas d'utilisation, ce qui a un impact supplémentaire sur le coût total de possession.

Un lac de données stocke de grands volumes de données structurées et non structurées, capables de s'adapter facilement à des volumes croissants. La capacité à prendre en charge différents types de données et de formats divers rend les lacs de données applicables aux cas d'utilisation du big data, tels que l'apprentissage automatique et la science des données, et constitue une option plus rentable qu'un entrepôt de données.

Mais la complexité et la taille des lacs de données nécessitent une gestion appropriée pour éviter que les données ne deviennent difficiles à gérer et nécessitent généralement des data scientists ou des data engineers pour utiliser efficacement les données.

Historiquement, les entrepôts de données et les lacs de données étaient déployés en tant qu'architectures individuelles et cloisonnées, ce qui nécessitait le partage des données entre deux systèmes. Un data lakehouse peut être utilisé en tandem avec un data lake et un data warehouse, offrant une option de stockage flexible et peu coûteuse pour tous les types de données et de formats et éliminant le besoin de copies multiples des données dans différents systèmes.

Grâce à la prise en charge des transactions ACID, les utilisateurs peuvent exécuter des requêtes par le biais de commandes SQL pour des données structurées et non structurées, en utilisant l'IA et l'analytique à haute performance pour une variété de cas d'utilisation. Les entreprises peuvent ainsi augmenter leur puissance d'analyse pour mettre en place des opérations plus intelligentes, en appliquant des connaissances pour personnaliser les expériences des clients, améliorer la prise de décision, accélérer le développement de produits, optimiser les flux de travail et accélérer la croissance du chiffre d'affaires.


Pourquoi les entreprises adoptent-elles une architecture de type "data lakehouse" ?

Les limites des architectures de données traditionnelles, telles que les coûts élevés et l'évolutivité limitée, incitent les organisations à adopter les entrepôts de données. Une enquête récente a révélé que 87% de plus de 200 responsables informatiques prévoient de rapatrier des charges de travail dans les deux ans à venir.

Plusieurs facteurs contribuent à la volonté d'adopter une approche plus moderne de l'architecture des données :

  • Des volumes croissants de données non structurées : Les entreprises ont besoin d'un moyen plus efficace pour stocker, gérer et utiliser les courriels, les messages sur les médias sociaux, les images de produits, les vidéos, les transcriptions des centres d'appels, les messages de chat, etc.
  • Se concentrer sur le service à la clientèle : L'analyse avancée et l'apprentissage automatique au sein d'une architecture de data lakehouse peuvent aider à identifier les modèles de comportement des clients, à tirer des enseignements des interactions de service et à créer des expériences plus ciblées et axées sur les données.
  • Réduction des coûts : L'utilisation d'un lac de données permet de réduire les coûts de stockage et de traitement, ainsi que d'améliorer la gestion des données à travers diverses charges de travail.
  • Adopter une stratégie de données hybrides : Une architecture de type "data lakehouse" offre aux entreprises la possibilité d'exploiter le stockage de données dans le nuage et hors nuage en fonction des exigences de déploiement, de sécurité et de conformité souhaitées.

Comment fonctionne un data lakehouse ?

Le data lakehouse se compose généralement de cinq couches :

  • Couche d'ingestion
  • Couche de stockage
  • Couche de métadonnées
  • Couche API
  • Couche de consommation

Examinons le rôle de chacun d'entre eux :

La couche d'ingestion, la première couche, recueille des données provenant de diverses sources, telles que les bases de données transactionnelles, les bases de données NoSQL et les API. À partir de là, les données sont transformées dans un format accessible pour que le centre de données puisse les stocker et les analyser.

La couche de stockage est l'endroit où toutes les données (non structurées, structurées et semi-structurées) sont introduites dans la base de données et stockées. Les données sont stockées dans des formats de fichiers ouverts pour optimiser les performances analytiques.

La troisième couche est celle des métadonnées, qui classifie les métadonnées associées aux données qui ont été ingérées et stockées.

La quatrième couche utilise des API pour effectuer des analyses plus avancées, permettant aux outils d'analyse et aux applications tierces d'interroger les données au sein de l'architecture du lac de données. Cette couche prend en charge le traitement des données en temps réel, ce qui permet aux équipes d'exploiter les analyses en temps réel, même lorsque les données sont mises à jour et actualisées.

La couche de consommation permet aux applications et aux outils d'accéder à toutes les métadonnées et à toutes les données stockées dans la base de données. Cela permet aux utilisateurs professionnels d'accéder aux données souhaitées et d'effectuer des tâches d'analyse telles que la création de tableaux de bord, la visualisation des données, les requêtes SQL et les tâches d'apprentissage automatique.


Quels sont les avantages commerciaux d'une architecture de type "data lakehouse" ?

Les data lakehouses apportent de nombreux avantages aux organisations et aux utilisateurs, tels qu'une meilleure gestion des données, des économies de coûts et une amélioration de l'IA et de l'apprentissage automatique à partir de la même source. Voici quelques-uns des principaux avantages d'un centre de données (data lakehouse) :

  • Une source unique de vérité : unifier la gestion des données et intégrer les données provenant de sources multiples et de formats différents pour assurer la cohérence des données.
  • Évolutivité souhaitée : Avec des ressources de stockage et de calcul séparées, il est possible de prendre en charge et de faire évoluer un ensemble varié de charges de travail.
  • Nouvelles opportunités pour la GenAI : les capacités et la structure d'un lac de données permettent aux organisations d'exploiter les ressources de données pour les applications de GenAI et de les utiliser pour la création de contenu, les informations et les réponses personnalisées et rapides.
  • Performances analytiques : Améliorer les performances des requêtes de données afin d'accroître la rapidité et la précision des résultats.
  • Une gouvernance des données fiable : Cadre et contrôles robustes de gouvernance des données pour assurer la qualité et la sécurité des données.
  • Flexibilité du déploiement : Optimisez les coûts et les performances grâce à des options de déploiement hors-cloud, hybride et multi-cloud.

Comment OpenText peut-il vous aider à tirer parti des avantages du data lakehouse ?

Grâce à l'analyse en temps réel et à l'apprentissage automatique intégré, OpenText permet aux entreprises d'analyser les données de façon transparente au sein d'un entrepôt de données, ce qui optimise l'utilisation des ressources et réduit le coût total de possession.

OpenText aide les entreprises à tirer pleinement parti d'une architecture moderne de lac de données, ancrée dans OpenText™ Analytics Database (Vertica) pour des analyses performantes et évolutives dans les entrepôts de données et les lacs de données.

Le moteur unifié d'OpenText prend en charge le SQL haute performance, l'analyse avancée et les formats de données ouverts, vous offrant ainsi la vitesse d'un entrepôt avec l'échelle et l'ouverture d'un lac. Que ce soit sur site, dans le nuage ou dans des environnements hybrides, OpenText permet aux entreprises d'unifier leur paysage de données et d'exécuter des analyses là où les données se trouvent, sans aucun compromis.

Pour étendre ces capacités, la plateforme composable Analytics and AI d'OpenText permet aux organisations d'extraire des informations plus approfondies, de gouverner les données plus efficacement et d'apporter de la valeur à l'ensemble de l'entreprise.

Pour améliorer la compréhension, Knowledge Discovery utilise l'IA avancée et l'apprentissage automatique pour traiter et analyser les données non structurées telles que les documents, les courriels, les vidéos et les types de contenu audio critiques que les centres de données traditionnels négligent souvent. OpenText™ Intelligent Classification l'enrichit encore avec le traitement du langage naturel, en découvrant les sentiments, les sujets et les entités clés à partir de volumes massifs de texte. OpenText™ Intelligence permet aux utilisateurs professionnels de disposer de tableaux de bord interactifs et d'analyses en libre-service pour accélérer la prise de décision.

Au-delà de l'analyse, OpenText répond aux besoins critiques des entreprises en matière de confiance, de gouvernance et de sécurité des données. OpenText™ Data Discovery analyse, classifie et cartographie automatiquement les données à travers les silos, donnant aux organisations une visibilité sur les informations sensibles et réglementées, et réduisant les risques avant même que les données ne pénètrent dans l'environnement analytique. Data Privacy and Protection ajoute une sécurité centrée sur les données, de niveau professionnel, grâce au cryptage préservant le format, à la tokenisation et aux contrôles de confidentialité basés sur des règles, garantissant que vos données restent protégées tout au long de leur cycle de vie.

Ensemble, ces capacités transforment l'offre de data lakehouse d'OpenText en un écosystème holistique, prêt pour l'entreprise, conçu pour la vitesse, l'intelligence, la sécurité et la confiance.

Découvrez comment une plateforme analytique rapide et évolutive peut soutenir votre entreprise et analyser les données où qu'elles soient stockées.

En savoir plus sur le data lakehouse et l'analytique d'OpenText

Commencez votre essai gratuit d'OpenText Analytics Database


Commencer votre essai gratuit

Comment pouvons-nous vous aider ?

Notes de bas de page