Maison Opération et maintenance Docker Quelle est la relation entre Docker et K8 ?

Quelle est la relation entre Docker et K8 ?

Jun 24, 2020 pm 02:26 PM
docker k8s

Quelle est la relation entre Docker et K8 ?

1. Tout d'abord, jetons un coup d'œil aux définitions officielles de docker et k8 :

Docker est un moteur de conteneur d'applications open source qui permet aux développeurs de packager leurs applications. et les dépendances sont placées dans un conteneur portable et distribuées aux machines Linux populaires, qui peuvent également être virtualisées.

(Tutoriel recommandé : docker)

k8s est un système de gestion de cluster de conteneurs open source qui peut réaliser un déploiement automatique, une expansion et une contraction automatiques et une maintenance des clusters de conteneurs. .

2. Examinons ensuite la comparaison entre les deux et les technologies traditionnelles :

1 Du point de vue de la virtualisation

La technologie de virtualisation traditionnelle sera. Une fois le matériel physique virtualisé en plusieurs ensembles de matériel, un système d'exploitation doit être déployé sur chaque ensemble de matériel, puis les applications correspondantes sont exécutées sur ces systèmes d'exploitation.

Le processus d'application dans le conteneur Docker s'exécute directement sur le noyau de l'hôte (véritable machine physique). Le moteur Docker emballe certaines applications indépendantes et leurs dépendances respectives, et les exécute indépendamment sur le futur hôte virtualisé. matériel, chaque conteneur ne possède pas son propre noyau, qui est évidemment plus léger que les machines virtuelles traditionnelles.

Chaque cluster possède plusieurs nœuds, et chaque nœud peut être utilisé. Notre kuberbete est conçu pour gérer le petit environnement d'exécution (conteneur) où se trouvent ces applications.

2. Du point de vue du déploiement

La méthode traditionnelle consiste à déployer toutes les applications directement sur le même nœud de machine physique. De cette manière, les dépendances de chaque application sont exactement les mêmes, et cela. Il est impossible d'atteindre le même objectif entre les applications. Bien sûr, pour l'isolation, nous pouvons également créer une machine virtuelle pour y déployer l'application, mais cela est trop fastidieux.

Nous utilisons désormais la technologie de déploiement de conteneurs Container pour déployer des applications. Tous les conteneurs peuvent s'exécuter sur le moteur de conteneur.

Puisque vous n'aimez pas la lourde charge de travail des machines virtuelles et que vous souhaitez utiliser Docker, eh bien, allez-y et utilisez-le. Comment l'utiliser ? Créer un par un manuellement ? Bien sûr que non, la technologie Kubernetes est apparue et le système de gestion de cluster de conteneurs représenté par Kubernetes était sur le point d'entrer en scène.

3. Enfin, analysons la relation entre docker et k8s :

Nous utilisons Kubernetes pour gérer les clusters Docker, c'est-à-dire que Docker peut être considéré comme un composant de bas niveau utilisé. en interne par Kubernetes.

De plus, Kubernetes prend en charge non seulement Docker, mais également Rocket, qui est une autre technologie de conteneur.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
2 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Repo: Comment relancer ses coéquipiers
1 Il y a quelques mois By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Adventure: Comment obtenir des graines géantes
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Combien de temps faut-il pour battre Split Fiction?
3 Il y a quelques semaines By DDD

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Comment empaqueter un projet avec pycharm Comment empaqueter un projet avec pycharm Apr 25, 2024 am 03:54 AM

Il existe quatre façons de regrouper un projet dans PyCharm : Emballer sous forme de fichier exécutable distinct : Exporter au format de fichier unique EXE. Emballé sous forme de programme d'installation : générez le Makefile et compilez les outils de configuration. Packagez en tant qu'image Docker : spécifiez un nom d'image, ajustez les options de construction et construisez. Package en tant que conteneur : spécifiez l'image à créer, ajustez les options d'exécution et démarrez le conteneur.

Développement et exploitation agiles de la conteneurisation de microservices PHP Développement et exploitation agiles de la conteneurisation de microservices PHP May 08, 2024 pm 02:21 PM

Réponse : Les microservices PHP sont déployés avec HelmCharts pour un développement agile et conteneurisés avec DockerContainer pour l'isolation et l'évolutivité. Description détaillée : utilisez HelmCharts pour déployer automatiquement des microservices PHP afin de réaliser un développement agile. Les images Docker permettent une itération rapide et un contrôle de version des microservices. Le standard DockerContainer isole les microservices et Kubernetes gère la disponibilité et l'évolutivité des conteneurs. Utilisez Prometheus et Grafana pour surveiller les performances et l'état des microservices, et créer des alarmes et des mécanismes de réparation automatiques.

Enseignement du nœud PI: Qu'est-ce qu'un nœud PI? Comment installer et configurer le nœud PI? Enseignement du nœud PI: Qu'est-ce qu'un nœud PI? Comment installer et configurer le nœud PI? Mar 05, 2025 pm 05:57 PM

Explication détaillée et guide d'installation pour les nœuds de pignon Cet article introduira l'écosystème de pignon en détail - nœuds PI, un rôle clé dans l'écosystème de pignon et fournir des étapes complètes pour l'installation et la configuration. Après le lancement du réseau de test de la blockchain pèse, les nœuds PI sont devenus une partie importante de nombreux pionniers participant activement aux tests, se préparant à la prochaine version du réseau principal. Si vous ne connaissez pas encore Pinetwork, veuillez vous référer à ce qu'est Picoin? Quel est le prix de l'inscription? PI Utilisation, exploitation minière et sécurité. Qu'est-ce que Pinetwork? Le projet Pinetwork a commencé en 2019 et possède sa pièce exclusive de crypto-monnaie PI. Le projet vise à en créer un que tout le monde peut participer

Docker achève le déploiement local du grand modèle open source LLama3 en trois minutes Docker achève le déploiement local du grand modèle open source LLama3 en trois minutes Apr 26, 2024 am 10:19 AM

LLaMA-3 (LargeLanguageModelMetaAI3) est un modèle d'intelligence artificielle générative open source à grande échelle développé par Meta Company. Il ne présente aucun changement majeur dans la structure du modèle par rapport à la génération précédente LLaMA-2. Le modèle LLaMA-3 est divisé en différentes versions, notamment petite, moyenne et grande, pour répondre aux différents besoins d'application et ressources informatiques. La taille des paramètres des petits modèles est de 8B, la taille des paramètres des modèles moyens est de 70B et la taille des paramètres des grands modèles atteint 400B. Cependant, lors de la formation, l'objectif est d'atteindre une fonctionnalité multimodale et multilingue, et les résultats devraient être comparables à GPT4/GPT4V. Installer OllamaOllama est un grand modèle de langage open source (LL

Comment démarrer le programme Golang Comment démarrer le programme Golang Apr 21, 2024 am 12:47 AM

Il existe quatre façons de démarrer un programme Go : À l'aide de la ligne de commande : go run main.go Démarrage via le menu "Exécuter" ou "Debug" de l'EDI Démarrage d'un conteneur à l'aide d'un outil d'orchestration de conteneur (tel que Docker ou Kubernetes) À l'aide de systemd ou superviseur sur les systèmes Unix Exécuté en tant que service système

Comment installer Deepseek Comment installer Deepseek Feb 19, 2025 pm 05:48 PM

Il existe de nombreuses façons d'installer Deepseek, notamment: Compiler à partir de Source (pour les développeurs expérimentés) en utilisant des packages précompilés (pour les utilisateurs de Windows) à l'aide de conteneurs Docker (pour le plus pratique, pas besoin de s'inquiéter de la compatibilité), quelle que soit la méthode que vous choisissez, veuillez lire Les documents officiels documentent soigneusement et les préparent pleinement à éviter des problèmes inutiles.

Architecture et pratique du système distribué PHP Architecture et pratique du système distribué PHP May 04, 2024 am 10:33 AM

L'architecture système distribuée PHP atteint l'évolutivité, les performances et la tolérance aux pannes en distribuant différents composants sur les machines connectées au réseau. L'architecture comprend des serveurs d'applications, des files d'attente de messages, des bases de données, des caches et des équilibreurs de charge. Les étapes de migration des applications PHP vers une architecture distribuée comprennent : Identifier les limites des services Sélectionner un système de file d'attente de messages Adopter un cadre de microservices Déploiement vers la gestion de conteneurs Découverte de services

Comment optimiser les performances des fonctions Java grâce à la conteneurisation ? Comment optimiser les performances des fonctions Java grâce à la conteneurisation ? Apr 29, 2024 pm 03:09 PM

La conteneurisation améliore les performances des fonctions Java des manières suivantes : Isolation des ressources : garantit un environnement informatique isolé et évite les conflits de ressources. Léger - consomme moins de ressources système et améliore les performances d'exécution. Démarrage rapide - réduit les délais d'exécution des fonctions. Cohérence : dissociez les applications et l'infrastructure pour garantir un comportement cohérent dans tous les environnements.

See all articles