Dieser mehrteilige Tutorial führt Sie durch den Erstellen einer lokalen Pipeline für maschinelles Lernen mit Open-Source-Tools. Es ist perfekt für Startups mit einem Budget und betont die Kontrolle und die Kostenvorhersage.
Schlüsselvorteile:
Warum On-Premise gehen?
Viele nehmen Cloud-Speicher (AWS S3, Google Cloud Storage) an. Diese Serie zeigt jedoch, dass eine funktionale Pipeline mithilfe vorhandener Server ideal für ressourcenbezogene Umgebungen erstellt wird. Dieser Ansatz bietet eine sichere Lernumgebung ohne unvorhersehbare Kosten.
Zielgruppe:
EinVoraussetzungen:
Vertrautheit mit Linux (Ubuntu 18.04 Empfohlen) und grundlegendes Docker -Wissen sind hilfreich. Deep Kubernetes -Expertise ist nicht erforderlich.
verwendete Werkzeuge:
Docker
Dieser Abschnitt konzentriert sich auf die herausfordernde Aufgabe der Kubernetes -Installation, die mit RKE vereinfacht ist.
Schritt 0: Maschinenvorbereitung:
Sie benötigen mindestens zwei Linux -Maschinen (oder VMs mit verkleinertem Netzwerk- und Promiscuous -Modus) im selben LAN, der als "Master" und "Arbeiter" bezeichnet wird. Beachten Sie, dass die Verwendung von VMS GPU -Zugriff und -leistung begrenzt.
Details für essentielle Maschine (IP -Adressen, Benutzernamen, SSH -Tasten) werden für die Konfiguration benötigt. Für dieses Tutorial wird ein temporärer Hostname (z. B.
Datei entsprechend auf beiden Maschinen, um diesen Hostnamen und die IP -Adressen widerzuspiegeln. Wenn Sie VMS verwenden, fügen Sie den Hostnameneintrag auch zur rancher-demo.domain.test
-Datei Ihres Host -Computers hinzu. /etc/hosts
/etc/hosts
Laden Sie den entsprechenden RKE -Binary für Ihr Betriebssystem von der GitHub -Release -Seite herunter, machen Sie es ausführbar und verschieben Sie es in
. Überprüfen Sie die Installation, indem Sie. /usr/local/bin
ausführen
rke
on
alle Maschinen:
Schritt 3: Cluster -Konfigurationsdatei:
Schritt 4: Auferziehende des Clusters:
Schritt 5: Kopieren von Kubeconfig:
Schritt 6: Installieren von Kubectl:
ausführen
Schritt 7: Installieren von Helm 3:
Schritt 8: Installieren von Rancher mit Helm:
Schritt 9: Einrichten des Eindringens (für Zugriff ohne Lastausgleich):
Schritt 10: Zugriff auf Rancher:
Schritt 11: Installieren von Cert-Manager:
häufig gestellte Fragen (FAQs): Der FAQS-Abschnitt enthält umfassende Antworten auf gemeinsame Fragen zum Einrichten von Kubernetes vor Ort, die Abdeckung von Vorteilen, Vergleiche mit Cloud-basierten Lösungen, Herausforderungen, Sicherheitsüberlegungen, Migrationsstrategien, Hardwareanforderungen, Skalierung, Kubernetes-Betreiber, Arbeitsbelastungen für maschinelles Lernen und Arbeitslosen und Arbeitsbelastungen für maschinelles Lernen und Arbeitsbelastung Leistungsüberwachung.
neu starten
docker
-Gruppe hinzu. Melden Sie sich aus und kehren Sie für die Gruppenänderungen zurück, um wirksam zu werden. AllowTcpForwarding yes
in /etc/ssh/sshd_config
). sudo swapoff -a
deaktivieren und die Swap -Einträge in /etc/fstab
sudo sysctl net.bridge.bridge-nf-call-iptables=1
Ausführen resolvconf
Installation /etc/resolvconf/resolv.conf.d/head
, bearbeiten resolvconf
, namervers (z. B. 8.8.4.4 und 8.8.8.8) und starten Sie rke config
Auf dem Master -Knoten verwenden Sie cluster.yml
, um eine rke up
Ausführen kube_config_cluster.yml
kopieren $HOME/.kube/config
zu kubectl
Installieren Sie kubectl get nodes
auf dem Masterknoten mit den angegebenen Befehlen. Überprüfen Sie die Installation, indem Sie cattle-system
Fügen Sie das Rancher -Repository hinzu, erstellen Sie einen ingress.yml
Erstellen Sie eine kubectl apply -f ingress.yml
-Datei (Anpassung des Hosts an Ihren ausgewählten Hostnamen) und verwenden Sie sie mit https://rancher-demo.domain.test
Zugriff auf die Rancher -Benutzeroberfläche unter
Das obige ist der detaillierte Inhalt vonPipelines für maschinelles Lernen: Einrichten von Kubernetes vor Ort einrichten. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!