


Explication détaillée de la publication du programme ASP.NET Core dans l'environnement de production Linux
Cet article présente principalement en détail la sortie des programmes ASP.NET Core dans l'environnement de production Linux. Il a une certaine valeur de référence. Les amis intéressés peuvent s'y référer.
Dans cet article, nous présenterons comment déployer des applications ASP.NET Core sur le serveur Ubuntu 14.04. Nous placerons l'application ASP.NET Core derrière un serveur proxy inverse, qui transmettra les requêtes à notre serveur Kestrel. En plus de cela, nous veillerons à ce que notre application Web soit démarrée en tant que démon. Nous devons configurer un outil de gestion de processus pour nous aider à récupérer le programme en cas de panne afin de garantir une haute disponibilité.
Chapitre :
Préparation
Copiez votre candidature
Configurer un serveur proxy inverse
Surveiller notre application
Lancer notre application
Journaux d'observation
Sécuriser nos applications
Préparation
1. un compte standard avec les autorisations sudo pour accéder à l'application Ubuntu 14.04
2.
Copiez votre application
Exécutez dotnet Publishing Emballez votre application ASP.NET Core dans un répertoire autonome ( répertoire de publication, le programme de ce répertoire sera téléchargé sur le serveur et exécuté). Qu'est-ce qu'un programme autonome (autonome) ? Veuillez vous référer à mon article :
Types d'applications .NET Core (applications portables et applications autonomes). Avant l'opération, téléchargez tous les programmes du répertoire de publication vers le répertoire spécifié par le serveur via les outils FTP (WinSCP, etc.). Ensuite, nous exécutons notre programme. Pour plus de détails sur la façon d'exécuter le programme, veuillez vous référer à cet article : Créer une application console autonome à l'aide de .NET Core 1.0.
Configurer un serveur proxy inverse
Pour les applications Web dynamiques, le proxy inverse est un paramètre très courant. Le proxy inverse met fin à la demande en cours et transmet la demande à l'application backend ASP.NET Core.
Pourquoi utiliser un serveur proxy inverse
Kestrel en tant que serveur Web est très efficace pour gérer le contenu dynamique, mais il n'est pas aussi mature que ceux des serveurs Web. également entièrement fonctionnel, notamment : IIS, Apache ou Nginx. Le serveur proxy inverse peut décharger une partie du travail du serveur HTTP, notamment le traitement du contenu statique, la mise en cache, la compression et SSL. Le serveur proxy inverse peut être déployé sur un serveur dédié ou dans le même cluster que le serveur HTTP. Dans cet exemple, nous utiliserons Nginx comme serveur proxy inverse et le déploierons sur la même machine que le serveur HTTP.
Installer le serveur proxy
sudo apt-get install nginx
Installer Nginx
sudo service nginx start
Démarrer Nginx
Configurer Nginx
Modifier le fichier : /etc/nginx/sites -available/default est le suivant :
server { listen 80; location / { proxy_pass http://localhost:5000; proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection keep-alive; proxy_set_header Host $host; proxy_cache_bypass $http_upgrade; } }
écoute sur le port 80, le port par défaut de HTTP utilisé par le proxy est : HTTP 1.1 ; la demande originale est transmise à : http://localhost:5000.
Une fois la configuration ci-dessus terminée, utilisez la commande suivante pour vérifier si la syntaxe du fichier de configuration est correcte :
sudo nginx -t
Si la syntaxe de configuration n'est pas S'il y a un problème, redémarrez Nginx pour que la configuration prenne effet :
sudo nginx -s reload
Surveillez notre application web
Nginx transmettra la requête à votre serveur Kestrel, mais Kestrel n'est pas comme IIS sous Windows, il ne gère pas votre processus Kestrel , dans cet article, nous utiliserons le superviseur pour démarrer notre application et se récupérer lorsque le système démarre ou lorsque le processus plante.
Superviseur d'installation :
sudo apt-get superviseur d'installation
Configurer le superviseur :
/etc/supervisor/ conf.d/hellomvc.conf (un nouveau fichier)
[program:hellomvc] command=/usr/bin/dotnet /var/aspnetcore/HelloMVC/HelloMVC.dll directory=/var/aspnetcore/HelloMVC/ autostart=true autorestart=true stderr_logfile=/var/log/hellomvc.err.log stdout_logfile=/var/log/hellomvc.out.log environment=ASPNETCOREENVIRONMENT=Production user=www-data stopsignal=INT
Redémarrer superviseur
sudo service supervisor stop sudo service supervisor start
Démarrez notre application Web
Dans ce cas, parce que nous utilisons un superviseur pour gérer notre application, l'application sera automatiquement activée par le superviseur. Lorsque le système d'exploitation démarre, le superviseur est démarré en tant que démon à l'aide d'un script d'initialisation System V. Une fois le superviseur démarré, il démarrera votre application.
Journal d'observation
journal du superviseur
sudo tail -f /var/log/supervisor/supervisord.log
Journaux de nos propres applications
tail -f /var/log/hellomvc.out.log
Traduction originale : Publier sur un environnement de production Linux
Auteur : Sourabh Shirhatti
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Les principales différences entre Centos et Ubuntu sont: l'origine (Centos provient de Red Hat, pour les entreprises; Ubuntu provient de Debian, pour les particuliers), la gestion des packages (Centos utilise Yum, se concentrant sur la stabilité; Ubuntu utilise APT, pour une fréquence de mise à jour élevée), le cycle de support (CentOS fournit 10 ans de soutien, Ubuntu fournit un large soutien de LT tutoriels et documents), utilisations (Centos est biaisé vers les serveurs, Ubuntu convient aux serveurs et aux ordinateurs de bureau), d'autres différences incluent la simplicité de l'installation (Centos est mince)

Étapes d'installation de CentOS: Téléchargez l'image ISO et Burn Bootable Media; démarrer et sélectionner la source d'installation; sélectionnez la langue et la disposition du clavier; configurer le réseau; partitionner le disque dur; définir l'horloge système; créer l'utilisateur racine; sélectionnez le progiciel; démarrer l'installation; Redémarrez et démarrez à partir du disque dur une fois l'installation terminée.

Centos sera fermé en 2024 parce que sa distribution en amont, Rhel 8, a été fermée. Cette fermeture affectera le système CentOS 8, l'empêchant de continuer à recevoir des mises à jour. Les utilisateurs doivent planifier la migration et les options recommandées incluent CentOS Stream, Almalinux et Rocky Linux pour garder le système en sécurité et stable.

La politique de sauvegarde et de récupération de GitLab dans le système CentOS afin d'assurer la sécurité et la récupérabilité des données, Gitlab on CentOS fournit une variété de méthodes de sauvegarde. Cet article introduira plusieurs méthodes de sauvegarde courantes, paramètres de configuration et processus de récupération en détail pour vous aider à établir une stratégie complète de sauvegarde et de récupération de GitLab. 1. MANUEL BACKUP Utilisez le Gitlab-RakegitLab: Backup: Créer la commande pour exécuter la sauvegarde manuelle. Cette commande sauvegarde des informations clés telles que le référentiel Gitlab, la base de données, les utilisateurs, les groupes d'utilisateurs, les clés et les autorisations. Le fichier de sauvegarde par défaut est stocké dans le répertoire / var / opt / gitlab / backups. Vous pouvez modifier / etc / gitlab

Docker utilise les fonctionnalités du noyau Linux pour fournir un environnement de fonctionnement d'application efficace et isolé. Son principe de travail est le suivant: 1. Le miroir est utilisé comme modèle en lecture seule, qui contient tout ce dont vous avez besoin pour exécuter l'application; 2. Le Système de fichiers Union (UnionFS) empile plusieurs systèmes de fichiers, ne stockant que les différences, l'économie d'espace et l'accélération; 3. Le démon gère les miroirs et les conteneurs, et le client les utilise pour l'interaction; 4. Les espaces de noms et les CGROUP implémentent l'isolement des conteneurs et les limitations de ressources; 5. Modes de réseau multiples prennent en charge l'interconnexion du conteneur. Ce n'est qu'en comprenant ces concepts principaux que vous pouvez mieux utiliser Docker.

Le support de disque dur CentOS est divisé en étapes suivantes: Déterminez le nom du périphérique du disque dur (/ dev / sdx); créer un point de montage (il est recommandé d'utiliser / mnt / newdisk); Exécutez la commande Mount (mont / dev / sdx1 / mnt / newdisk); modifier le fichier / etc / fstab pour ajouter une configuration de montage permanent; Utilisez la commande umount pour désinstaller l'appareil pour vous assurer qu'aucun processus n'utilise l'appareil.

Comment utiliser Docker Desktop? Docker Desktop est un outil pour exécuter des conteneurs Docker sur les machines locales. Les étapes à utiliser incluent: 1. Installer Docker Desktop; 2. Démarrer Docker Desktop; 3. Créer une image Docker (à l'aide de DockerFile); 4. Build Docker Image (en utilisant Docker Build); 5. Exécuter Docker Container (à l'aide de Docker Run).

Une fois CentOS arrêté, les utilisateurs peuvent prendre les mesures suivantes pour y faire face: sélectionnez une distribution compatible: comme Almalinux, Rocky Linux et CentOS Stream. Migrez vers les distributions commerciales: telles que Red Hat Enterprise Linux, Oracle Linux. Passez à Centos 9 Stream: Rolling Distribution, fournissant les dernières technologies. Sélectionnez d'autres distributions Linux: comme Ubuntu, Debian. Évaluez d'autres options telles que les conteneurs, les machines virtuelles ou les plates-formes cloud.
