Maison titres Plusieurs technologies clés de l'architecture big data

Plusieurs technologies clés de l'architecture big data

Mar 10, 2018 am 09:41 AM
关键 大数据 技术

Reconstruire une plate-forme d'infrastructure informatique d'entreprise est une tâche complexe. La refonte de la plateforme est souvent déclenchée par un ensemble changeant de facteurs clés de l'entreprise, et c'est exactement ce qui se produit actuellement. En termes simples, les plates-formes qui dominent la technologie informatique des entreprises depuis près de 30 ans ne peuvent plus répondre aux demandes des charges de travail nécessaires pour faire progresser l'entreprise.

Plusieurs technologies clés de larchitecture big data

Au cœur de la transformation numérique, ce sont les données, qui sont devenues la chose la plus précieuse en entreprise. Les organisations sont depuis longtemps confrontées aux problèmes des données qu’elles consomment en raison de formats incompatibles, des limitations des bases de données traditionnelles et de l’incapacité de combiner de manière flexible des données provenant de plusieurs sources. L’émergence des technologies émergentes promet de changer tout cela.

L'amélioration des modèles de déploiement de logiciels est un aspect majeur de la suppression des obstacles à l'utilisation des données. Une plus grande « agilité des données » nécessite également des bases de données plus flexibles et des plateformes de streaming en temps réel plus évolutives. En fait, il existe au moins sept technologies fondamentales qui peuvent être combinées pour fournir aux entreprises une « structure de données » flexible et en temps réel.

Contrairement aux technologies qu'elles remplacent, ces sept innovations logicielles s'adaptent aux besoins de nombreux utilisateurs et à de nombreux cas d'utilisation. Les entreprises ont la possibilité de prendre des décisions plus rapides et plus éclairées et de créer de meilleures expériences client.

1. Base de données NoSQL

Le SGBDR domine le marché des bases de données depuis près de 30 ans. Cependant, face à la croissance continue du volume de données et à l’accélération de la vitesse de traitement des données, les bases de données relationnelles traditionnelles ont montré leurs lacunes. Les bases de données NoSQL prennent le relais en raison de leur rapidité et de leur capacité à évoluer. Dans le cas des bases de données documentaires, elles fournissent un modèle plus simple du point de vue du génie logiciel. Ce modèle de développement plus simple accélère la mise sur le marché et aide les entreprises à répondre plus rapidement aux besoins des clients et des utilisateurs internes.

2. Plateforme de diffusion en direct

Répondre aux clients en temps réel est crucial pour l'expérience client. Ce n’est un mystère pour personne que les industries en contact direct avec le consommateur ont connu des perturbations massives au cours de la dernière décennie. Cela dépend de la capacité d'une entreprise à réagir aux utilisateurs en temps réel. Le passage à un modèle en temps réel nécessite la diffusion d'événements.

Les applications basées sur les messages existent depuis des années. Cependant, les plateformes de streaming d’aujourd’hui sont beaucoup plus grandes et moins chères que jamais. Les progrès récents de la technologie de streaming ont ouvert la porte à de nombreuses nouvelles façons d’optimiser votre entreprise. En fournissant des boucles de rétroaction en temps réel aux équipes de développement et de test de logiciels, le streaming d'événements peut également aider les entreprises à améliorer la qualité de leurs produits et à développer de nouveaux logiciels plus rapidement.

3. Docker et conteneurs

Les conteneurs présentent de grands avantages pour les développeurs et les opérateurs, ainsi que pour l'organisation elle-même. L'approche traditionnelle de l'isolation de l'infrastructure est le partitionnement statique, qui attribue à chaque charge de travail un bloc fixe de ressources distinct (qu'il s'agisse d'un serveur physique ou d'une machine virtuelle). Le partitionnement statique peut faciliter le dépannage, mais le coût d'un matériel largement sous-utilisé est élevé. Par exemple, un serveur Web moyen n’utilise que 10 % de la puissance de calcul totale disponible.

L'énorme avantage de la technologie des conteneurs est sa capacité à créer une nouvelle façon d'isolement. Ceux qui connaissent le mieux les conteneurs pensent peut-être qu'ils peuvent obtenir les mêmes avantages en utilisant des outils comme Ansible, Puppet ou Chef, mais en réalité, ces technologies sont très complémentaires. De plus, quels que soient les efforts des entreprises, ces outils d’automatisation ne parviennent pas à obtenir l’isolation nécessaire pour déplacer librement les charges de travail entre différentes infrastructures et configurations matérielles. Le même conteneur peut fonctionner sur du matériel nu dans un centre de données sur site ou sur une machine virtuelle dans le cloud public sans aucune modification. Il s’agit d’une véritable mobilité de la charge de travail.

4. Dépôts de conteneurs

Les référentiels de conteneurs sont essentiels à l'agilité. Sans un processus DevOps pour créer des images de conteneurs et une corbeille pour les stocker, chaque conteneur devrait être créé sur chaque machine avant de pouvoir s'exécuter. Un référentiel permet de lancer des images de conteneurs sur la machine qui lit le référentiel. Cela devient plus complexe lors du traitement dans plusieurs centres de données. Si vous créez une image de conteneur dans un centre de données, comment déplacer l'image vers un autre centre de données ? Idéalement, en tirant parti d'une plate-forme de données convergée, les entreprises auront la possibilité de mettre en miroir les référentiels entre les centres de données.

Un détail clé ici est que les capacités de mise en miroir entre le cloud computing sur site et le cloud peuvent différer considérablement des capacités de mise en miroir entre les centres de données d'une entreprise. Les plates-formes de données convergées résoudront ce problème pour les entreprises en fournissant ces capacités, que l'organisation utilise une infrastructure de centre de données ou une infrastructure de cloud computing.

5. Orchestration des conteneurs

Chaque conteneur semble avoir son propre système d'exploitation privé plutôt qu'un partitionnement matériel statique. Contrairement aux machines virtuelles, les conteneurs ne nécessitent pas de partitionnement statique du calcul et de la mémoire. Cela permet aux administrateurs de lancer un grand nombre de conteneurs sur un serveur sans avoir à se soucier de grandes quantités de mémoire. Avec des outils d'orchestration de conteneurs comme Kubernetes, il devient très simple de lancer des conteneurs, de les déplacer et de les redémarrer ailleurs dans l'environnement.

Une fois les nouveaux composants d'infrastructure en place, documentez les bases de données comme MapR-DB ou MongoDB, les plateformes de streaming d'événements comme MapR-ES ou Apache Kafka (les outils d'orchestration comme Kubernetes), et après la mise en œuvre du processus DevOps pour créer et déployer des logiciels dans Conteneurs Docker, il faut comprendre la question de savoir quels composants doivent être déployés dans ces conteneurs.

6. Microservices

Historiquement, le concept de microservices n'est pas nouveau. La différence aujourd’hui est que les technologies habilitantes (bases de données NoSQL, streaming d’événements, orchestration de conteneurs) peuvent évoluer avec la création de milliers de microservices. Sans ces nouvelles approches en matière de stockage de données, de streaming d’événements et d’orchestration architecturale, les déploiements de microservices à grande échelle ne seraient pas possibles. L'infrastructure requise pour gérer de grands volumes de données, d'événements et d'instances de conteneurs ne pourra pas atteindre les niveaux requis.

Les microservices visent à fournir de l'agilité. Les microservices consistent généralement en une fonction ou un petit ensemble de fonctions. Plus l’unité de travail fonctionnelle est petite et ciblée, plus il est facile de créer, tester et déployer le service. Ces services doivent être découplés, sinon l’entreprise perdra la promesse des microservices agiles. Les microservices peuvent dépendre d'autres services, mais généralement via une API REST à charge équilibrée ou un streaming d'événements. En utilisant le streaming d'événements, les entreprises peuvent facilement suivre l'historique des événements à l'aide de sujets de demande et de réponse. Cette approche présente des avantages significatifs en matière de dépannage puisque l'intégralité du flux de requête et toutes les données de la requête peuvent être relues à tout moment.

Étant donné que les microservices encapsulent une petite partie du travail et qu'ils sont découplés les uns des autres, il y a peu ou pas d'obstacles au remplacement ou à la mise à niveau des services au fil du temps. En mode hérité, s'appuyer sur un couplage étroit comme RPC impliquait de devoir fermer toutes les connexions puis les rétablir. L'équilibrage de charge est un gros problème lors de leur mise en œuvre, car la configuration manuelle les rend sujets aux erreurs.

7. Fonctions en tant que service

Tout comme nous avons vu les microservices dominer le secteur, nous verrons également l'essor de l'informatique sans serveur ou peut-être plus précisément l'appellerons Fonctions en tant que service ( FaaS). FaaS crée des microservices de telle manière que le code peut être enveloppé dans un cadre léger, intégré dans un conteneur, exécuté à la demande (basé sur une sorte de déclencheur), puis équilibré automatiquement la charge, grâce au cadre léger. La beauté de FaaS est qu’il permet aux développeurs de se concentrer presque entièrement sur cette fonctionnalité. Le FaaS apparaît donc comme la conclusion logique de l’approche des microservices.

Le déclenchement d'événements est un élément clé du FaaS. Sans cela, les fonctions peuvent être appelées et les ressources consommées uniquement lorsque le travail doit être effectué. L’invocation automatique des fonctions rend le FaaS vraiment précieux. Imaginez que chaque fois que quelqu'un lit le profil d'un utilisateur, un événement d'audit se produit, une fonctionnalité qui doit s'exécuter pour avertir l'équipe de sécurité. Plus précisément, il peut filtrer uniquement certains types d'enregistrements. Cela peut être facultatif, après tout, il s’agit d’une fonctionnalité professionnelle entièrement personnalisable. Il est important de noter qu’il est très simple de réaliser un tel workflow en utilisant un modèle de déploiement tel que FaaS.

Rassembler des événements

La magie derrière le déclenchement des services réside en réalité dans les événements du flux d'événements. Certains types d'événements sont utilisés comme déclencheurs plus fréquemment que d'autres, mais tout événement qu'une entreprise souhaite être un déclencheur peut le devenir. L'événement déclencheur peut être une mise à jour d'un document, exécutant le processus OCR sur le nouveau document, puis ajoutant le texte du processus OCR à la base de données NoSQL. Si l'on réfléchit d'une manière plus intéressante, la reconnaissance et la notation des images peuvent être effectuées via un cadre d'apprentissage automatique chaque fois qu'une image est téléchargée. Il n’y a pas de limitations fondamentales ici. Si un événement déclencheur est défini, un événement se produit, l'événement déclenche la fonction et la fonction termine son travail.

FaaS sera la prochaine étape dans l’adoption des microservices. Cependant, il existe un facteur majeur à prendre en compte lors de l’approche du FaaS : la dépendance vis-à-vis du fournisseur. FaaS cache des mécanismes de stockage spécifiques, une infrastructure matérielle et une orchestration spécifiques, qui sont autant de bonnes choses pour les développeurs. Mais en raison de cette abstraction, les offres FaaS hébergées représentent l’une des plus grandes opportunités de dépendance vis-à-vis d’un fournisseur que le secteur informatique ait jamais connues. Ces API n'étant pas standardisées, la migration d'un produit FaaS vers le cloud public est presque impossible sans perdre près de 100 % du travail effectué. Si le FaaS est abordé de manière plus structurée en tirant parti des événements provenant de plates-formes de données convergées, la transition entre les fournisseurs de cloud deviendra plus facile.

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Le papier Stable Diffusion 3 est enfin publié, et les détails architecturaux sont révélés. Cela aidera-t-il à reproduire Sora ? Le papier Stable Diffusion 3 est enfin publié, et les détails architecturaux sont révélés. Cela aidera-t-il à reproduire Sora ? Mar 06, 2024 pm 05:34 PM

L'article de StableDiffusion3 est enfin là ! Ce modèle est sorti il ​​y a deux semaines et utilise la même architecture DiT (DiffusionTransformer) que Sora. Il a fait beaucoup de bruit dès sa sortie. Par rapport à la version précédente, la qualité des images générées par StableDiffusion3 a été considérablement améliorée. Il prend désormais en charge les invites multithèmes, et l'effet d'écriture de texte a également été amélioré et les caractères tronqués n'apparaissent plus. StabilityAI a souligné que StableDiffusion3 est une série de modèles avec des tailles de paramètres allant de 800M à 8B. Cette plage de paramètres signifie que le modèle peut être exécuté directement sur de nombreux appareils portables, réduisant ainsi considérablement l'utilisation de l'IA.

Compétences de traitement de structures de données volumineuses de PHP Compétences de traitement de structures de données volumineuses de PHP May 08, 2024 am 10:24 AM

Compétences en matière de traitement de la structure des Big Data : Chunking : décomposez l'ensemble de données et traitez-le en morceaux pour réduire la consommation de mémoire. Générateur : générez des éléments de données un par un sans charger l'intégralité de l'ensemble de données, adapté à des ensembles de données illimités. Streaming : lisez des fichiers ou interrogez les résultats ligne par ligne, adapté aux fichiers volumineux ou aux données distantes. Stockage externe : pour les ensembles de données très volumineux, stockez les données dans une base de données ou NoSQL.

DualBEV : dépassant largement BEVFormer et BEVDet4D, ouvrez le livre ! DualBEV : dépassant largement BEVFormer et BEVDet4D, ouvrez le livre ! Mar 21, 2024 pm 05:21 PM

Cet article explore le problème de la détection précise d'objets sous différents angles de vue (tels que la perspective et la vue à vol d'oiseau) dans la conduite autonome, en particulier comment transformer efficacement les caractéristiques de l'espace en perspective (PV) en vue à vol d'oiseau (BEV). implémenté via le module Visual Transformation (VT). Les méthodes existantes sont globalement divisées en deux stratégies : la conversion 2D en 3D et la conversion 3D en 2D. Les méthodes 2D vers 3D améliorent les caractéristiques 2D denses en prédisant les probabilités de profondeur, mais l'incertitude inhérente aux prévisions de profondeur, en particulier dans les régions éloignées, peut introduire des inexactitudes. Alors que les méthodes 3D vers 2D utilisent généralement des requêtes 3D pour échantillonner des fonctionnalités 2D et apprendre les poids d'attention de la correspondance entre les fonctionnalités 3D et 2D via un transformateur, ce qui augmente le temps de calcul et de déploiement.

Cinq tendances majeures de développement dans l'industrie AEC/O en 2024 Cinq tendances majeures de développement dans l'industrie AEC/O en 2024 Apr 19, 2024 pm 02:50 PM

AEC/O (Architecture, Engineering & Construction/Operation) fait référence aux services complets qui assurent la conception architecturale, la conception technique, la construction et l’exploitation dans le secteur de la construction. En 2024, l’industrie de l’AEC/O est confrontée à des défis changeants au milieu des progrès technologiques. Cette année devrait voir l’intégration de technologies avancées, annonçant un changement de paradigme dans la conception, la construction et l’exploitation. En réponse à ces changements, les industries redéfinissent les processus de travail, ajustent les priorités et renforcent la collaboration pour s'adapter aux besoins d'un monde en évolution rapide. Les cinq tendances majeures suivantes dans l'industrie AEC/O deviendront des thèmes clés en 2024, lui recommandant d'évoluer vers un avenir plus intégré, réactif et durable : chaîne d'approvisionnement intégrée, fabrication intelligente.

Application d'algorithmes dans la construction de 58 plateformes de portraits Application d'algorithmes dans la construction de 58 plateformes de portraits May 09, 2024 am 09:01 AM

1. Contexte de la construction de la plateforme 58 Portraits Tout d'abord, je voudrais partager avec vous le contexte de la construction de la plateforme 58 Portraits. 1. La pensée traditionnelle de la plate-forme de profilage traditionnelle ne suffit plus. La création d'une plate-forme de profilage des utilisateurs s'appuie sur des capacités de modélisation d'entrepôt de données pour intégrer les données de plusieurs secteurs d'activité afin de créer des portraits d'utilisateurs précis. Elle nécessite également l'exploration de données pour comprendre le comportement et les intérêts des utilisateurs. et besoins, et fournir des capacités côté algorithmes ; enfin, il doit également disposer de capacités de plate-forme de données pour stocker, interroger et partager efficacement les données de profil utilisateur et fournir des services de profil. La principale différence entre une plate-forme de profilage d'entreprise auto-construite et une plate-forme de profilage de middle-office est que la plate-forme de profilage auto-construite dessert un seul secteur d'activité et peut être personnalisée à la demande. La plate-forme de mid-office dessert plusieurs secteurs d'activité et est complexe ; modélisation et offre des fonctionnalités plus générales. 2.58 Portraits d'utilisateurs de l'arrière-plan de la construction du portrait sur la plate-forme médiane 58

Revoir! Fusion profonde de modèles (LLM/modèle de base/apprentissage fédéré/mise au point, etc.) Revoir! Fusion profonde de modèles (LLM/modèle de base/apprentissage fédéré/mise au point, etc.) Apr 18, 2024 pm 09:43 PM

Le 23 septembre, l'article « DeepModelFusion:ASurvey » a été publié par l'Université nationale de technologie de la défense, JD.com et l'Institut de technologie de Pékin. La fusion/fusion de modèles profonds est une technologie émergente qui combine les paramètres ou les prédictions de plusieurs modèles d'apprentissage profond en un seul modèle. Il combine les capacités de différents modèles pour compenser les biais et les erreurs des modèles individuels pour de meilleures performances. La fusion profonde de modèles sur des modèles d'apprentissage profond à grande échelle (tels que le LLM et les modèles de base) est confrontée à certains défis, notamment un coût de calcul élevé, un espace de paramètres de grande dimension, l'interférence entre différents modèles hétérogènes, etc. Cet article divise les méthodes de fusion de modèles profonds existantes en quatre catégories : (1) « Connexion de modèles », qui relie les solutions dans l'espace de poids via un chemin de réduction des pertes pour obtenir une meilleure fusion de modèles initiale.

Plus qu'une simple gaussienne 3D ! Dernier aperçu des techniques de reconstruction 3D de pointe Plus qu'une simple gaussienne 3D ! Dernier aperçu des techniques de reconstruction 3D de pointe Jun 02, 2024 pm 06:57 PM

Écrit ci-dessus & La compréhension personnelle de l'auteur est que la reconstruction 3D basée sur l'image est une tâche difficile qui implique de déduire la forme 3D d'un objet ou d'une scène à partir d'un ensemble d'images d'entrée. Les méthodes basées sur l’apprentissage ont attiré l’attention pour leur capacité à estimer directement des formes 3D. Cet article de synthèse se concentre sur les techniques de reconstruction 3D de pointe, notamment la génération de nouvelles vues inédites. Un aperçu des développements récents dans les méthodes d'éclaboussure gaussienne est fourni, y compris les types d'entrée, les structures de modèle, les représentations de sortie et les stratégies de formation. Les défis non résolus et les orientations futures sont également discutés. Compte tenu des progrès rapides dans ce domaine et des nombreuses opportunités d’améliorer les méthodes de reconstruction 3D, un examen approfondi de l’algorithme semble crucial. Par conséquent, cette étude fournit un aperçu complet des progrès récents en matière de diffusion gaussienne. (Faites glisser votre pouce vers le haut

Discussion sur les raisons et les solutions au manque de framework Big Data en langage Go Discussion sur les raisons et les solutions au manque de framework Big Data en langage Go Mar 29, 2024 pm 12:24 PM

À l’ère actuelle du Big Data, le traitement et l’analyse des données sont devenus un support important pour le développement de diverses industries. En tant que langage de programmation doté d'une efficacité de développement élevée et de performances supérieures, le langage Go a progressivement attiré l'attention dans le domaine du big data. Cependant, par rapport à d'autres langages tels que Java, Python, etc., le langage Go prend en charge relativement mal les frameworks Big Data, ce qui a causé des problèmes à certains développeurs. Cet article explorera les principales raisons du manque de framework Big Data dans le langage Go, proposera des solutions correspondantes et l'illustrera avec des exemples de code spécifiques. 1. Allez dans la langue