


Drei Best Practices für kleine und mittlere Unternehmen zur Einführung einer Hybrid Cloud zur Verarbeitung großer Datenmengen
Heute treten Big Data und Analysen in eine ausgereiftere Bereitstellungsphase ein. Das sind gute Nachrichten für kleine und mittlere Unternehmen, die diese Technologien einsetzen und Schwierigkeiten haben, eine Big-Data-Architektur für ihr Unternehmen zu definieren.
Die Unsicherheit darüber, wie die Gesamtarchitektur von Big Data und Analytics definiert werden soll, ist einer der Gründe, warum KMUs bei der Bereitstellung von Big Data und Analytics hinterherhinken. In vielen Fällen warten sie ab und beobachten, wie sich Trends wie Hybrid Computing, Data Marts, Masterdatenbanken usw. entwickeln und wie sich die Kontrollen über Sicherheit und Governance auswirken werden.
Schließlich wird eine neue Best-Practice-Datenarchitektur bereitgestellt, der jeder folgen kann. In dieser Architektur werden Cloud-Computing-Dienste zur Speicherung und Verarbeitung großer Datenmengen genutzt, während Rechenzentren vor Ort zur Entwicklung lokaler Data Marts im Unternehmen genutzt werden.
Werfen wir einen genaueren Blick auf die Gründe für diese Big-Data- und Analytics-Architektur:
Wenn das Unternehmen klein ist, ist es teuer, Servercluster zu kaufen, um große Datenmengen im Rechenzentrum parallel zu verarbeiten, ganz zu schweigen von der Einstellung oder Schulung sehr teurer Fachkräfte, die wissen, wie man die Parallelverarbeitungsumgebung optimiert, aktualisiert und wartet. Unternehmen, die sich dafür entscheiden, Daten vor Ort zu verarbeiten und zu speichern, tätigen auch erhebliche Investitionen in Hardware, Software und Speicherausrüstung. Die Anschaffung von Big-Data-Hardware und -Software sowie die Auslagerung der Rechenverarbeitung und -speicherung in die Cloud werden viel Geld kosten.
Data Governance (z. B. Sicherheits- und Compliance-Probleme) ist einer der Gründe, warum Unternehmen zögern, alle ihre geschäftskritischen Daten in die Cloud zu übertragen, weil diese schwieriger zu verwalten sind. Sobald die Daten in der Cloud verarbeitet werden, entscheiden sich daher viele Unternehmen dafür, die Daten in ihre eigenen Rechenzentren vor Ort zu migrieren.
Es gibt noch einen weiteren Grund, warum sich viele Unternehmen für die Nutzung ihrer Rechenzentren entscheiden: Sie konzentrieren sich auf die proprietären Anwendungen und Algorithmen, die diese Daten entwickeln, da es die Richtlinie vieler Cloud-Computing-Anbieter ist, dass alle von Kunden in der Cloud entwickelten Anwendungen gemeinsam genutzt werden dürfen mit anderen Kunden.
Durch die Vorhaltung von Anwendungen vor Ort im Rechenzentrum und die Entwicklung eines lokalen Stammdatensatzes, von dem kleinere Data Marts getrennt werden können, haben Unternehmen direkte Kontrolle über ihre Daten und Anwendungen.
Wenn ein Unternehmen beispielsweise Daten anonymisieren muss, sollte der von ihm implementierte Prozess dokumentiert und mit seinem Cloud-Anbieter vereinbart werden, da der Cloud-Anbieter die Anonymisierung übernimmt. Wenn ein Unternehmen seine eigenen Daten bereinigen möchte, sollte es seinem Cloud-Computing-Anbieter auch detaillierte schriftliche Anweisungen zum Bereinigungsprozess geben. Möchte das Unternehmen beispielsweise nur die Abkürzungen für alle US-Bundesstaaten vereinheitlichen (z. B. „Tenn“ und „Tennessee“ = „TN“), oder sorgen andere Änderungen an den Daten letztendlich für eine einheitlichere und einfachere Verarbeitung? Unabhängig davon, ob Ihr Unternehmen im dedizierten Mandanten eines Cloud-Computing-Dienstanbieters oder in einer Umgebung mit mehreren Mandanten läuft, sollte der Cloud-Computing-Anbieter garantieren können, dass die Daten des Unternehmens niemals mit anderen Kunden geteilt werden.
Viele IT-Abteilungen in Unternehmen vermissen diese Aufgabe völlig. Sie beginnen einfach mit der Umsetzung von Big-Data-Projekten, vergessen jedoch, dass die bestehenden Richtlinien und Verfahren zur Anwendungsentwicklung aus der Anwendungsdomäne der Transaktion stammen. Unternehmen sollten diesen Fehler nicht machen. Stattdessen müssen Unternehmen Richtlinien und Verfahren in Bereichen überarbeiten, in denen die Wahrscheinlichkeit einer Interaktion mit Big Data höher ist (z. B. Speicher, Datenbankverwaltung, Anwendungen).
Im Falle cloudbasierter DR-Tests sollten Organisationen Bestimmungen zur Aufzeichnung und Ausführung von DR in den Vertrag aufnehmen. Disaster Recovery (DR)-Pläne (die sich auf Transaktionsdaten und -systeme konzentrieren) sollten ebenfalls auf dem neuesten Stand gehalten werden und Wiederherstellungs- und Testskripts für Big Data und Analysen umfassen.
Das obige ist der detaillierte Inhalt vonDrei Best Practices für kleine und mittlere Unternehmen zur Einführung einer Hybrid Cloud zur Verarbeitung großer Datenmengen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Die wichtigsten Unterschiede zwischen CentOS und Ubuntu sind: Ursprung (CentOS stammt von Red Hat, für Unternehmen; Ubuntu stammt aus Debian, für Einzelpersonen), Packungsmanagement (CentOS verwendet yum, konzentriert sich auf Stabilität; Ubuntu verwendet apt, für hohe Aktualisierungsfrequenz), Support Cycle (Centos) (CENTOS bieten 10 Jahre. Tutorials und Dokumente), Verwendungen (CentOS ist auf Server voreingenommen, Ubuntu ist für Server und Desktops geeignet). Weitere Unterschiede sind die Einfachheit der Installation (CentOS ist dünn)

CentOS -Installationsschritte: Laden Sie das ISO -Bild herunter und verbrennen Sie bootfähige Medien. Starten und wählen Sie die Installationsquelle; Wählen Sie das Layout der Sprache und Tastatur aus. Konfigurieren Sie das Netzwerk; Partition die Festplatte; Setzen Sie die Systemuhr; Erstellen Sie den Root -Benutzer; Wählen Sie das Softwarepaket aus; Starten Sie die Installation; Starten Sie nach Abschluss der Installation von der Festplatte neu und starten Sie von der Festplatte.

CentOS wurde eingestellt, Alternativen umfassen: 1. Rocky Linux (beste Kompatibilität); 2. Almalinux (kompatibel mit CentOS); 3. Ubuntu Server (Konfiguration erforderlich); 4. Red Hat Enterprise Linux (kommerzielle Version, bezahlte Lizenz); 5. Oracle Linux (kompatibel mit CentOS und RHEL). Bei der Migration sind Überlegungen: Kompatibilität, Verfügbarkeit, Unterstützung, Kosten und Unterstützung in der Gemeinde.

Wie benutze ich Docker Desktop? Docker Desktop ist ein Werkzeug zum Ausführen von Docker -Containern auf lokalen Maschinen. Zu den zu verwendenden Schritten gehören: 1.. Docker Desktop installieren; 2. Start Docker Desktop; 3.. Erstellen Sie das Docker -Bild (mit Dockerfile); 4. Build Docker Image (mit Docker Build); 5. Docker -Container ausführen (mit Docker Run).

Docker verwendet Linux -Kernel -Funktionen, um eine effiziente und isolierte Anwendungsumgebung zu bieten. Sein Arbeitsprinzip lautet wie folgt: 1. Der Spiegel wird als schreibgeschützte Vorlage verwendet, die alles enthält, was Sie für die Ausführung der Anwendung benötigen. 2. Das Union File System (UnionFS) stapelt mehrere Dateisysteme, speichert nur die Unterschiede, speichert Platz und beschleunigt. 3. Der Daemon verwaltet die Spiegel und Container, und der Kunde verwendet sie für die Interaktion. 4. Namespaces und CGroups implementieren Container -Isolation und Ressourcenbeschränkungen; 5. Mehrere Netzwerkmodi unterstützen die Containerverbindung. Nur wenn Sie diese Kernkonzepte verstehen, können Sie Docker besser nutzen.

Nachdem CentOS gestoppt wurde, können Benutzer die folgenden Maßnahmen ergreifen, um sich damit zu befassen: Wählen Sie eine kompatible Verteilung aus: wie Almalinux, Rocky Linux und CentOS Stream. Migrieren Sie auf kommerzielle Verteilungen: wie Red Hat Enterprise Linux, Oracle Linux. Upgrade auf CentOS 9 Stream: Rolling Distribution und bietet die neueste Technologie. Wählen Sie andere Linux -Verteilungen aus: wie Ubuntu, Debian. Bewerten Sie andere Optionen wie Container, virtuelle Maschinen oder Cloud -Plattformen.

Fehlerbehebung Schritte für fehlgeschlagene Docker -Bild Build: Überprüfen Sie die Dockerfile -Syntax und die Abhängigkeitsversion. Überprüfen Sie, ob der Build -Kontext den erforderlichen Quellcode und die erforderlichen Abhängigkeiten enthält. Sehen Sie sich das Build -Protokoll für Fehlerdetails an. Verwenden Sie die Option -Target -Option, um eine hierarchische Phase zu erstellen, um Fehlerpunkte zu identifizieren. Verwenden Sie die neueste Version von Docker Engine. Erstellen Sie das Bild mit--t [Bildname]: Debugg-Modus, um das Problem zu debuggen. Überprüfen Sie den Speicherplatz und stellen Sie sicher, dass dies ausreicht. Deaktivieren Sie Selinux, um eine Störung des Build -Prozesses zu verhindern. Fragen Sie Community -Plattformen um Hilfe, stellen Sie Dockerfiles an und erstellen Sie Protokollbeschreibungen für genauere Vorschläge.

VS Code system requirements: Operating system: Windows 10 and above, macOS 10.12 and above, Linux distribution processor: minimum 1.6 GHz, recommended 2.0 GHz and above memory: minimum 512 MB, recommended 4 GB and above storage space: minimum 250 MB, recommended 1 GB and above other requirements: stable network connection, Xorg/Wayland (Linux)
