Heim > häufiges Problem > Was ist der Schlüssel zur Datennutzung im Zeitalter von Big Data?

Was ist der Schlüssel zur Datennutzung im Zeitalter von Big Data?

王林
Freigeben: 2023-02-09 14:02:04
Original
36399 Leute haben es durchsucht

Der Schlüssel zur Datennutzung im Zeitalter von Big Data ist die Wiederverwendung von Daten. Unter Big Data versteht man eine Sammlung von Daten, die mit herkömmlichen Softwaretools nicht innerhalb eines bestimmten Zeitraums erfasst, verwaltet und verarbeitet werden können. Big Data zeichnet sich durch großes Volumen, hohe Geschwindigkeit, Vielfalt, geringe Wertedichte und Authentizität aus.

Was ist der Schlüssel zur Datennutzung im Zeitalter von Big Data?

Die Betriebsumgebung dieses Tutorials: Windows 10-System, Dell G3-Computer.

Ausführliche Einführung:

Big Data (Big Data), ein Begriff aus der IT-Branche, bezeichnet eine Sammlung von Daten, die mit herkömmlichen Softwaretools nicht innerhalb eines bestimmten Zeitraums erfasst, verwaltet und verarbeitet werden können. Dazu sind neue Verarbeitungsmodelle erforderlich Stärkere Fähigkeiten. Riesige, wachstumsstarke und diversifizierte Informationsressourcen für die Entscheidungsfindung, Erkenntnisgewinnung und Prozessoptimierung.

In „The Age of Big Data“ [1] von Victor Meyer-Schoenberg und Kenneth Cukier bezieht sich Big Data darauf, keine Abkürzungen wie Zufallsanalysen (Stichprobenumfrage) zu verwenden, sondern alle Daten für die Analyse zu nutzen. Die 5V-Merkmale von Big Data (vorgeschlagen von IBM): Volumen, Geschwindigkeit, Vielfalt, Wert und Veracity.

Eigenschaften:

Volumen: Die Größe der Daten bestimmt den Wert und die potenziellen Informationen der betrachteten Daten;

Geschwindigkeit: bezieht sich auf die Geschwindigkeit der Datengewinnung;

Variabilität (Variabilität): behindert den Prozess der Verarbeitung und effektiven Verwaltung von Daten.

Wahrhaftigkeit: die Qualität der Daten.

Komplexität: Die Datenmenge ist riesig und stammt aus mehreren Kanälen.

Wert: Nutzen Sie Big Data rational, um hohen Wert zu geringen Kosten zu schaffen.

Verwandte Erweiterung:

Gartner, eine Forschungsorganisation für „Big Data“, hat diese Definition gegeben. „Big Data“ erfordert neue Verarbeitungsmodelle mit stärkerer Entscheidungskraft, Erkenntnissen und Möglichkeiten zur Prozessoptimierung, um sich an die massiven, hohen Wachstumsraten und diversifizierten Informationsbestände anzupassen.

Die Definition des McKinsey Global Institute lautet: eine Datensammlung, die so groß ist, dass ihre Erfassung, Speicherung, Verwaltung und Analyse die Möglichkeiten herkömmlicher Datenbanksoftwaretools bei weitem übersteigt. Sie verfügt über einen enormen Datenumfang, einen schnellen Datenfluss und vielfältige Daten Arten und niedrige Wertedichte sind vier Hauptmerkmale.

Die strategische Bedeutung der Big-Data-Technologie liegt nicht in der Beherrschung riesiger Datenmengen, sondern in der professionellen Verarbeitung dieser bedeutungsvollen Daten. Mit anderen Worten: Vergleicht man Big Data mit einer Branche, dann liegt der Schlüssel zur Rentabilität dieser Branche in der Verbesserung der „Verarbeitungsfähigkeiten“ von Daten und der Erzielung des „Mehrwerts“ von Daten durch „Verarbeitung“.

Technisch gesehen ist die Beziehung zwischen Big Data und Cloud Computing so untrennbar miteinander verbunden wie die beiden Seiten derselben Medaille. Big Data kann nicht von einem einzelnen Computer verarbeitet werden und muss eine verteilte Architektur verwenden. Sein Merkmal liegt im verteilten Data Mining großer Datenmengen. Es muss jedoch auf verteilter Verarbeitung, verteilter Datenbank und Cloud-Speicher sowie der Virtualisierungstechnologie des Cloud Computing basieren.

Mit dem Aufkommen des Cloud-Zeitalters hat auch Big Data (Big Data) immer mehr Aufmerksamkeit auf sich gezogen. Das Analystenteam ist der Ansicht, dass Big Data im Allgemeinen zur Beschreibung der großen Mengen unstrukturierter und halbstrukturierter Daten verwendet wird, die von einem Unternehmen erstellt werden und deren Herunterladen in eine relationale Datenbank zur Analyse zu viel Zeit und Geld kosten würde. Big-Data-Analysen werden häufig mit Cloud Computing in Verbindung gebracht, da für die Echtzeitanalyse großer Datenmengen Frameworks wie MapReduce erforderlich sind, um die Arbeit auf Dutzende, Hunderte oder sogar Tausende von Computern zu verteilen.

Big Data erfordert spezielle Technologie, um große Datenmengen über einen erträglichen Zeitraum hinweg effektiv zu verarbeiten. Zu den auf Big Data anwendbaren Technologien gehören MPP-Datenbanken (Massively Parallel Processing), Data Mining, verteilte Dateisysteme, verteilte Datenbanken, Cloud-Computing-Plattformen, das Internet und skalierbare Speichersysteme.

Die kleinste Grundeinheit ist Bit, alle Einheiten werden in der Reihenfolge angegeben: Bit, Byte, KB, MB, GB, TB, PB, EB, ZB, YB, BB, NB, DB.

Sie werden nach der Vorschubrate 1024 (2 zur zehnten Potenz) berechnet:

1 Byte =8 Bit

1 KB = 1.024 Bytes = 8192 Bit

1 MB = 1.024 KB = 1.048.576 Bytes

1 GB = 1.024 MB = 1.048.576 KB

1 TB = 1.024 GB = 1.048.576 MB

1 PB = 1.024 TB = 1.048.576 GB

1 EB = 1.024 PB = 1.048.576 TB

1 ZB = 1.024 EB = 1.048.576 PB

1 YB = 1.024 ZB = 1.048.576 EB

1 BB = 1.024 YB = 1.048.576 ZB

1 NB = 1.024 BB = 1.048.576 YB

1 DB = 1.024 NB = 1.048.576 BB

(Lernvideo-Sharing:

Programmiervideo

)

Das obige ist der detaillierte Inhalt vonWas ist der Schlüssel zur Datennutzung im Zeitalter von Big Data?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage