


Was Sie über Docker Compose wissen müssen (Zusammenfassungsfreigabe)
Dieser Artikel vermittelt Ihnen relevantes Wissen über Docker Compose. Ich hoffe, er wird Ihnen hilfreich sein.
Warum brauchen wir Docker Compose?
Docker hilft uns, das Problem der Paketierung und Installation von Diensten zu lösen. Das damit verbundene Problem ist, dass zu viele Dienste die folgenden Probleme mit sich bringen:
Verwenden Sie Dockerfile Build Image oder DockerHub viele Male Pull Image;
Sie müssen mehrere Container erstellen und Startbefehle mehrmals schreiben.
So verwalten und orchestrieren Sie voneinander abhängige Container.
Die oben genannten drei Fragen: Wenn diese drei Probleme nicht gelöst werden, scheint es tatsächlich keine Änderungen mehr von virtuellen Maschinen zur Containerisierung zu geben, außer der Reduzierung einiger Maschinenverschwendung. Gibt es in Docker eine gute Möglichkeit, Container über eine Konfiguration zu orchestrieren und auszuführen? Zu diesem Zeitpunkt kam Docker Compose zum Vorschein.
Docker Compose kann Folgendes tun:
Bereitstellen von Tools zum Definieren und Ausführen mehrerer Docker-Containeranwendungen;
Verwenden Sie Yaml-Dateien, um Anwendungsdienste zu konfigurieren (docker-compse.yml);
-
Sie können beginnen alle Dienste entsprechend ihrer Abhängigkeiten mit einem einfachen Befehl docker-compose up;
Sie können alle Dienste mit einem einfachen Befehl docker-compose down stoppen
Wenn ein Dienst benötigt wird, kann er einfach erweitert werden --scale;
Docker Compose verfügt über die folgenden Funktionen:
Höhere Portabilität, Docker Compose benötigt nur einen Docker-Compose, um alle Dienste entsprechend den Abhängigkeiten zu starten, und verwendet dann Docker-Compose, um ihn einfach zu zerlegen . Helfen Sie uns, komplexe Anwendungen einfacher bereitzustellen.
Mehrere isolierte Umgebungen auf einem einzigen Host. Compose kann Projektnamen verwenden, um Umgebungen voneinander zu isolieren, wodurch mehrere Kopien derselben Umgebung auf einem Computer ausgeführt werden können. Es verhindert unterschiedliche Projekte und Dienste dürfen sich nicht gegenseitig stören.
Einführung in Docker Compose.
Docker Compose ist ein Tool zum Definieren und Ausführen von Multi-Container-Anwendungen Docker-Anwendung;
Docker Compose verwendet einen Befehl, um mehrere Container gemäß der Definition der YML-Datei zu erstellen oder zu verwalten; ist ein Tool zur Automatisierung von Docker. Mit Docker Compose können Sie alle komplexen Docker-Vorgänge mit nur einem Befehl automatisieren.
Docker Compose-Installation-
Die neueste installierte Version von Docker Compose ist 1.29.2. Nach der Installation von Docker für Mac und Windows ist eine manuelle Installation nicht erforderlich von Linux. Sie können sich zur Installation auch auf die offizielle Website beziehen.
Laden Sie die Docker Compose-Binärdatei herunter Wenn Sie die alte Version herunterladen möchten, können Sie die Versionsnummer vonsudo curl -L "https://github.com/docker/compose/releases/download/1.29.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
Nach dem Login kopierenändern. Überprüfen Sie nach der Installation, ob die Installation abgeschlossen ist ist über den Befehl docker-compose --version erfolgreich zwei Hauptformate, Version 2 und Version 3. Diese beiden werden derzeit am häufigsten verwendet. Für diese beiden möchte ich die Unterschiede zwischen den Versionen vorstellen:sudo chmod +x /usr/local/bin/docker-compose
Nach dem Login kopieren
- v3-Version unterstützt Docker Swarm, während die v2-Version nicht unterstützt wird;
- Hinweis: Der Beamte hat in 1.20 ein neues --compatibility-Flag eingeführt. 0, um Entwicklern den einfachen Übergang zu v3 zu erleichtern. Es gibt immer noch einige Probleme und der Beamte empfiehlt, es nicht direkt für die Produktion zu verwenden. Wir empfehlen jedem, direkt mit der v3-Version zu beginnen.
-
Was Sie über Docker Compose wissen müssen (Zusammenfassungsfreigabe)
Einführung in die grundlegenden Befehle von Docker Compose
Docker Compose-Befehle ähneln im Wesentlichen Docker und beziehen sich hauptsächlich auf die Lebenszyklussteuerung, das Protokollformat und andere verwandte Befehle von Docker Compose. compose --help um zu helfen.Docker Compose in Aktion#构建建启动nignx容器 docker-compose up -d nginx #进入nginx容器中 docker-compose exec nginx bash #将会停止UP命令启动的容器,并删除容器 docker-compose down #显示所有容器 docker-compose ps #重新启动nginx容器 docker-compose restart nginx #构建镜像 docker-compose build nginx #不带缓存的构建 docker-compose build --no-cache nginx #查看nginx的日志 docker-compose logs nginx #查看nginx的实时日志 docker-compose logs -f nginx #验证(docker-compose.yml)文件配置, #当配置正确时,不输出任何内容,当文件配置错误,输出错误信息 docker-compose config -q #以json的形式输出nginx的docker日志 docker-compose events --json nginx #暂停nignx容器 docker-compose pause nginx #恢复ningx容器 docker-compose unpause nginx #删除容器 docker-compose rm nginx #停止nignx容器 docker-compose stop nginx #启动nignx容器 docker-compose start nginx
Nach dem Login kopieren
- Was Sie über Docker Compose wissen müssen (Zusammenfassungsfreigabe)
-
新建Spring Boot应用,增加一个HelloController,编写一个hello方法,返回请求的端口和IP;
/** * hello * * @author wangtongzhou * @since 2021-07-25 09:43 */ @RestController public class HelloController { @GetMapping("/hello") public String hello(HttpServletRequest req) throws UnknownHostException { return "hello"; } }
Nach dem Login kopieren指定Spring Boot的启动入口;
<build> <plugins> <plugin> <groupid>org.springframework.boot</groupid> <artifactid>spring-boot-maven-plugin</artifactid> <configuration> <!-- 指定该Main Class为全局的唯一入口 --> <mainclass>cn.wheel.getway.WheelGetWay</mainclass> </configuration> <executions> <execution> <goals> <!--可以把依赖的包都打包到生成的Jar包中--> <goal>repackage</goal> </goals> </execution> </executions> </plugin> </plugins> </build>
Nach dem Login kopieren打包Spring Boot应用;
mvn package
Nach dem Login kopieren上传文件到Linux服务器/usr/local/docker-compose-demo的目录;
在/usr/local/docker-compose-demo的目录编辑Dockerfile;
#指定基础镜像 FROM java:8 LABEL name="docker-compose-demo" version="1.0" author="wtz" COPY ./getway-1.0-SNAPSHOT.jar ./docker-compose-demo.jar #启动参数 CMD ["java","-jar","docker-compose-demo.jar"]
Nach dem Login kopieren编辑docker-compose.yml文件;
version: '3.0' networks: docker-compose-demo-net: driver: bridge ipam: config: - subnet: 192.168.1.0/24 gateway: 192.168.1.1 services: docker-compose-demo01: build: #构建的地址 context: /usr/local/docker-compose-demo dockerfile: Dockerfile image: docker-compose-demo container_name: docker-compose-demo01 #选择网络 networks: - docker-compose-demo-net #选择端口 ports: - 8081:8080/tcp restart: always docker-compose-demo02: build: #构建的地址 context: /usr/local/docker-compose-demo dockerfile: Dockerfile image: docker-compose-demo container_name: docker-compose-demo02 #选择网络 networks: - docker-compose-demo-net #选择端口 ports: - 8082:8080/tcp restart: always nginx: image: nginx:latest container_name: nginx-demo networks: - docker-compose-demo-net ports: - 80:80/tcp restart: always volumes: - /usr/local/docker-compose-demo/nginx.conf:/etc/nginx/nginx.conf:rw volumes: docker-compose-demo-volume: {}
Nach dem Login kopieren编写nginx.conf,实现负载均衡到每个应用,这里通过容器名称访问,因此不需要管每个容器的ip是多少,这个也是自定义网络的好处;
user nginx; worker_processes 1; events { worker_connections 1024; } http { include /etc/nginx/mime.types; default_type application/octet-stream; sendfile on; keepalive_timeout 65; server { listen 80; location / { proxy_pass http://docker-compose-demo; proxy_set_header Host $host; proxy_set_header X-real-ip $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; } } upstream docker-compose-demo{ server docker-compose-demo01:8080; server docker-compose-demo02:8080; } include /etc/nginx/conf.d/*.conf; }
Nach dem Login kopieren查看/usr/local/docker-compose-demo目录,有以下确保有以下四个文件;
Was Sie über Docker Compose wissen müssen (Zusammenfassungsfreigabe)
检查docker-compose.yml的语法是否正确,如果不发生报错,说明语法没有发生错误;
docker-compose config
Nach dem Login kopieren启动docker-compose.yml定义的服务;
docker-compose up
Nach dem Login kopierenWas Sie über Docker Compose wissen müssen (Zusammenfassungsfreigabe)
验证服务是否正确;
#查看宿主机ip ip add #访问对应的服务 curl http://172.21.122.231/hello
Nach dem Login kopierenWas Sie über Docker Compose wissen müssen (Zusammenfassungsfreigabe)
Was Sie über Docker Compose wissen müssen (Zusammenfassungsfreigabe)
Docker Compose Yml文件介绍
版本
对于版本没什么介绍的,就是指定使用的版本;
Services
每个Service代表一个Container,与Docker一样,Container可以是从DockerHub中拉取到的镜像,也可以是本地Dockerfile Build的镜像。
image
标明image的ID,这个image ID可以是本地也可以是远程的,如果本地不存在,Docker Compose会尝试pull下来;
image: ubuntu
Nach dem Login kopierenbuild
该参数指定Dockerfile文件的路径,Docker Compose会通过Dockerfile构建并生成镜像,然后使用该镜像;
build: #构建的地址 context: /usr/local/docker-compose-demo dockerfile: Dockerfile
Nach dem Login kopierenports
暴露端口,指定宿主机到容器的端口映射,或者只指定容器的端口,则表示映射到主机上的随机端口,一般采用主机:容器的形式来映射端口;
#暴露端口 ports: - 8081:8080/tcp
Nach dem Login kopierenexpose
暴露端口,但不需要建立与宿主机的映射,只是会向链接的服务提供;
environment
加入环境变量,可以使用数组或者字典,只有一个key的环境变量可以在运行compose的机器上找到对应的值;
env_file
从一个文件中引入环境变量,该文件可以是一个单独的值或者一个列表,如果同时定义了environment,则environment中的环境变量会重写这些值;
depends_on
定义当前服务启动时,依赖的服务,当前服务会在依赖的服务启动后启动;
depends_on: - docker-compose-demo02 - docker-compose-demo01
Nach dem Login kopierendeploy
该配置项在version 3里才引入,用于指定服务部署和运行时相关的参数;
replicas
指定副本数;
version: '3.4' services: worker: image: nginx:latest deploy: replicas: 6
Nach dem Login kopierenrestart_policy
指定重启策略;
version: "3.4" services: redis: image: redis:latest deploy: restart_policy: condition: on-failure #重启条件:on-failure, none, any delay: 5s # 等待多长时间尝试重启 max_attempts: 3 #尝试的次数 window: 120s # 在决定重启是否成功之前等待多长时间
Nach dem Login kopierenupdate_config
定义更新服务的方式,常用于滚动更新;
version: '3.4' services: vote: image: docker-compose-demo depends_on: - redis deploy: replicas: 2 update_config: parallelism: 2 # 一次更新2个容器 delay: 10s # 开始下一组更新之前,等待的时间 failure_action:pause # 如果更新失败,执行的动作:continue, rollback, pause,默认为pause max_failure_ratio: 20 # 在更新过程中容忍的失败率 order: stop-first # 更新时的操作顺序,停止优先(stop-first,先停止旧容器,再启动新容器)还是开始优先(start-first,先启动新容器,再停止旧容器),默认为停止优先,从version 3.4才引入该配置项
Nach dem Login kopierenresources
限制服务资源;
version: '3.4' services: redis: image: redis:alpine deploy: resources: #限制CPU的使用率为50%内存50M limits: cpus: '0.50' memory: 50M #始终保持25%的使用率内存20M reservations: cpus: '0.25' memory: 20M
Nach dem Login kopierenhealthcheck
执行健康检查;
healthcheck: test: ["CMD", "curl", "-f", "http://localhost"] # 用于健康检查的指令 interval: 1m30s # 间隔时间 timeout: 10s # 超时时间 retries: 3 # 重试次数 start_period: 40s # 启动多久后开始检查
Nach dem Login kopierenrestart
重启策略;
#默认的重启策略,在任何情况下都不会重启容器 restart: "no" #容器总是重新启动 restart: always #退出代码指示失败错误,则该策略会重新启动容器 restart: on-failure #重新启动容器,除非容器停止 restart: unless-stopped
Nach dem Login kopierennetworks
网络类型,可指定容器运行的网络类型;
#指定对应的网络 networks: - docker-compose-demo-net networks: docker-compose-demo-net: driver: bridge ipam: config: - subnet: 192.168.1.0/24 gateway: 192.168.1.1
Nach dem Login kopierenipv4_address, ipv6_address
加入网络时,为此服务指定容器的静态 IP 地址;
version: "3.9" services: app: image: nginx:alpine networks: app_net: ipv4_address: 172.16.238.10 ipv6_address: 2001:3984:3989::10 networks: app_net: ipam: driver: default config: - subnet: "172.16.238.0/24" - subnet: "2001:3984:3989::/64"
Nach dem Login kopierenNetworks
网络决定了服务之间以及服务和外界之间如何去通信,在执行docker-compose up的时候,docker会默认创建一个默认网络,创建的服务也会默认的使用这个默认网络。服务和服务之间,可以使用服务的名字进行通信,也可以自己创建网络,并将服务加入到这个网络之中,这样服务之间可以相互通信,而外界不能够与这个网络中的服务通信,可以保持隔离性。
Volumes
挂载主机路径或命名卷,指定为服务的子选项。可以将主机路径挂载为单个服务定义的一部分,无需在顶级volume中定义。如果想在多个服务中重用一个卷,则在顶级volumes key 中定义一个命名卷,将命名卷与服务一起使用。
推荐学习:《docker视频教程》
Das obige ist der detaillierte Inhalt vonWas Sie über Docker Compose wissen müssen (Zusammenfassungsfreigabe). Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Die verteilte PHP-Systemarchitektur erreicht Skalierbarkeit, Leistung und Fehlertoleranz durch die Verteilung verschiedener Komponenten auf mit dem Netzwerk verbundene Maschinen. Die Architektur umfasst Anwendungsserver, Nachrichtenwarteschlangen, Datenbanken, Caches und Load Balancer. Zu den Schritten zur Migration von PHP-Anwendungen auf eine verteilte Architektur gehören: Identifizieren von Dienstgrenzen, Auswählen eines Nachrichtenwarteschlangensystems, Einführung eines Microservices-Frameworks, Bereitstellung für die Containerverwaltung, Diensterkennung

Antwort: PHP-Microservices werden mit HelmCharts für eine agile Entwicklung bereitgestellt und mit DockerContainer für Isolation und Skalierbarkeit in Containern verpackt. Detaillierte Beschreibung: Verwenden Sie HelmCharts, um PHP-Microservices automatisch bereitzustellen, um eine agile Entwicklung zu erreichen. Docker-Images ermöglichen eine schnelle Iteration und Versionskontrolle von Microservices. Der DockerContainer-Standard isoliert Microservices und Kubernetes verwaltet die Verfügbarkeit und Skalierbarkeit der Container. Verwenden Sie Prometheus und Grafana, um die Leistung und den Zustand von Microservices zu überwachen und Alarme und automatische Reparaturmechanismen zu erstellen.

Detaillierte Erläuterungs- und Installationshandbuch für Pinetwork -Knoten In diesem Artikel wird das Pinetwork -Ökosystem im Detail vorgestellt - PI -Knoten, eine Schlüsselrolle im Pinetwork -Ökosystem und vollständige Schritte für die Installation und Konfiguration. Nach dem Start des Pinetwork -Blockchain -Testnetzes sind PI -Knoten zu einem wichtigen Bestandteil vieler Pioniere geworden, die aktiv an den Tests teilnehmen und sich auf die bevorstehende Hauptnetzwerkveröffentlichung vorbereiten. Wenn Sie Pinetwork noch nicht kennen, wenden Sie sich bitte an was Picoin ist? Was ist der Preis für die Auflistung? PI -Nutzung, Bergbau und Sicherheitsanalyse. Was ist Pinetwork? Das Pinetwork -Projekt begann 2019 und besitzt seine exklusive Kryptowährung PI -Münze. Das Projekt zielt darauf ab, eine zu erstellen, an der jeder teilnehmen kann

Es gibt viele Möglichkeiten, Deepseek zu installieren, einschließlich: kompilieren Sie von Quelle (für erfahrene Entwickler) mit vorberechtigten Paketen (für Windows -Benutzer) mit Docker -Containern (für bequem am besten, um die Kompatibilität nicht zu sorgen), unabhängig von der Methode, die Sie auswählen, bitte lesen Die offiziellen Dokumente vorbereiten sie sorgfältig und bereiten sie voll und ganz vor, um unnötige Schwierigkeiten zu vermeiden.

Die Containerisierung verbessert die Leistung von Java-Funktionen auf folgende Weise: Ressourcenisolation – Gewährleistung einer isolierten Computerumgebung und Vermeidung von Ressourcenkonflikten. Leicht – beansprucht weniger Systemressourcen und verbessert die Laufzeitleistung. Schneller Start – reduziert Verzögerungen bei der Funktionsausführung. Konsistenz – Entkoppeln Sie Anwendungen und Infrastruktur, um ein konsistentes Verhalten in allen Umgebungen sicherzustellen.

Antwort: Verwenden Sie PHPCI/CD, um eine schnelle Iteration zu erreichen, einschließlich der Einrichtung von CI/CD-Pipelines sowie automatisierten Test- und Bereitstellungsprozessen. Richten Sie eine CI/CD-Pipeline ein: Wählen Sie ein CI/CD-Tool aus, konfigurieren Sie das Code-Repository und definieren Sie die Build-Pipeline. Automatisierte Tests: Schreiben Sie Unit- und Integrationstests und verwenden Sie Test-Frameworks, um das Testen zu vereinfachen. Praktischer Fall: Verwendung von TravisCI: Installieren Sie TravisCI, definieren Sie die Pipeline, aktivieren Sie die Pipeline und sehen Sie sich die Ergebnisse an. Implementieren Sie Continuous Delivery: Wählen Sie Bereitstellungstools aus, definieren Sie Bereitstellungspipelines und automatisieren Sie die Bereitstellung. Vorteile: Verbessern Sie die Entwicklungseffizienz, reduzieren Sie Fehler und verkürzen Sie die Lieferzeit.

Stellen Sie Java EE-Anwendungen mithilfe von Docker-Containern bereit: Erstellen Sie eine Docker-Datei, um das Image zu definieren, erstellen Sie das Image, führen Sie den Container aus, ordnen Sie den Port zu und greifen Sie dann im Browser auf die Anwendung zu. Beispiel für eine JavaEE-Anwendung: Die REST-API interagiert mit der Datenbank und ist nach der Bereitstellung über Docker auf localhost zugänglich.

1. Klicken Sie nach dem Öffnen der Benutzeroberfläche zunächst auf die Schaltfläche mit dem Erweiterungssymbol auf der linken Seite. 2. Suchen Sie dann die Position der Suchleiste auf der geöffneten Erweiterungsseite. 3. Geben Sie dann mit der Maus das Wort Docker ein, um das Erweiterungs-Plug-in zu finden. 4 Wählen Sie abschließend das Ziel-Plug-in aus und klicken Sie einfach auf die Schaltfläche „Installieren“ in der unteren Ecke
