Was ist der Ursprung von Big Data?
Der Ursprung von Big Data ist das „Internet“. Die Big-Data-Branche bezieht sich auf die Informationsdienstleistungsbranche, die auf Datenspeicherung, Wertextraktion, intelligenter Verarbeitung und Verteilung basierend auf der Sammlung einer großen Anzahl von Datenressourcen aus einer Vielzahl von Kanälen wie dem Internet, dem Internet der Dinge und der Cloud basiert Rechnen.
Der Ursprung von Big Data ist das „Internet“.
Mit der Weiterentwicklung der intelligenten Fertigung hat sich auch die Technologie der künstlichen Intelligenz rasant weiterentwickelt, und die größte Anwendung von Big Data spiegelt sich in der Technologie der künstlichen Intelligenz wider, da bei Big Data nicht die Kausalität, sondern die Korrelation durch eine Reihe von Analysen im Vordergrund steht Daten bestimmen, ob es einen Zusammenhang gibt, der die Weiterentwicklung der intelligenten Fertigung fördert. In diesem Artikel werden die Besonderheiten von „Big Data“ bekannt gemacht.
Das Konzept von Big Data hat seinen Ursprung ursprünglich in den USA und wurde von Unternehmen wie Cisco, VMware, Oracle und IBM initiiert und entwickelt. Ab etwa 2009 wurde „Big Data“ zu einem Schlagwort in der Internet-Informationstechnologiebranche. Tatsächlich bezieht sich die Big-Data-Branche auf die Informationsdienstleistungsbranche, die auf Datenspeicherung, Wertextraktion, intelligenter Verarbeitung und Verteilung basiert und auf der Sammlung einer großen Anzahl von Datenressourcen über eine Vielzahl von Kanälen wie das Internet und das Internet der Dinge basiert und Cloud Computing haben es sich zum Ziel gesetzt, allen Benutzern die Möglichkeit zu geben, aus praktisch allen Daten verwertbare Erkenntnisse zu gewinnen, einschließlich Erkenntnissen, die zuvor in unstrukturierten Daten verborgen waren.
Die erste Institution, die behauptet, dass „das Zeitalter von Big Data angebrochen ist“, ist das weltbekannte Beratungsunternehmen McKinsey. Im Jahr 2011 wies McKinsey in einem Forschungsbericht mit dem Titel „Massive Data, the Next New Area for Innovation, Competition and Erhöhte Produktivität“ darauf hin, dass Daten in alle Branchen und Geschäftsfunktionsbereiche eingedrungen sind und sich nach und nach zu einem wichtigen Produktionsfaktor entwickelt haben Riesige Datenmengen werden eine neue Welle des Produktivitätswachstums und der Konsumentenrente ankündigen.
Big Data ist ein sich weiterentwickelndes Konzept. Sein aktueller Aufstieg ist darauf zurückzuführen, dass große Veränderungen von der IT-Technologie zur Datenakkumulation stattgefunden haben. Big Data hat sich in nur wenigen Jahren von einem Fachbegriff der Führungskräfte großer Internetunternehmen zu einem großen technischen Vorschlag entwickelt, der unseren zukünftigen digitalen Lebensstil bestimmt. Im Jahr 2012 veröffentlichten die Vereinten Nationen ein Big-Data-Whitepaper der Regierung „Big Data für Entwicklung: Herausforderungen und Chancen“. Multinationale IT-Giganten wie EMC, IBM und Oracle haben fast alle erstklassigen Internetunternehmen herausgebracht haben ihre Geschäftsreichweite auf die Big-Data-Branche ausgeweitet; egal, ob es sich um den Wettbewerb um soziale Plattformen, den E-Commerce-Preiskampf oder den Wettbewerb um Portal-Websites handelt, die US-Regierung hat 200 Millionen US-Dollar investiert, um den „Big Data Research and Development Plan“ auf den Weg zu bringen „, das Big Data auf eine nationale strategische Ebene gehoben hat. Im Jahr 2013 verwandelt sich Big Data von einem technischen Schlagwort in eine soziale Welle, die alle Aspekte des gesellschaftlichen Lebens beeinflussen wird.
Über den Ursprung des Konzepts „Big Data“
1. Der Name „Big Data“ stammt von „The Third Wave“ des Zukunftsforschers Toffler
Obwohl der Begriff „Big Data“ bis vor kurzem nicht verwendet wurde fand große Beachtung bei den Menschen, doch bereits 1980 lobte der berühmte Zukunftsforscher Toffler in seinem Buch „The Third Wave“ begeistert „Big Data“ als „die Kadenz der dritten Welle“. Das Magazin „Nature“ veröffentlichte im September 2008 eine Titelkolumne mit dem Titel „Big Data“. Seit 2009 ist „Big Data“ zu einem Schlagwort in der Internet-Technologiebranche geworden.
2. Die früheste Anwendung von „Big Data“ war McKinsey.
Die Idee, „Big Data“ zu sammeln und zu analysieren, kam von der weltbekannten Unternehmensberatung McKinsey. McKinsey & Company erkannte den potenziellen kommerziellen Wert der umfangreichen personenbezogenen Daten, die auf verschiedenen Online-Plattformen aufgezeichnet wurden, investierte daher viel Arbeitskraft und materielle Ressourcen in die Forschung und veröffentlichte im Juni 2011 einen Bericht über „Big Data“. Der Bericht analysierte die Auswirkungen von „Big Data“ auf Auswirkungen, Schlüsseltechnologien und Anwendungsbereiche werden detailliert analysiert. McKinseys Bericht erregte große Aufmerksamkeit in der Finanzwelt und zog dann nach und nach die Aufmerksamkeit aller Gesellschaftsschichten auf sich.
3. Die Merkmale von „Big Data“ wurden von Victor Meier-Schoenberg und Kenneth Cukier in „The „Big Data“ Era“ vorgeschlagen.
Victor Meier-Schoenberg und Ken in „The Era of Big Data“, geschrieben von Nice Kaye Es wird vorgeschlagen, dass die 4V-Eigenschaften von „Big Data“ sind: Volumen (große Datenmenge), Geschwindigkeit (schnelle Eingabe- und Verarbeitungsgeschwindigkeit), Vielfalt (Datenvielfalt), Wert (geringe Wertedichte). Diese Merkmale werden im Grunde von jedem erkannt. Artikel, in denen die Merkmale von „Big Data“ erwähnt werden, übernehmen grundsätzlich diese vier Merkmale.
4. Erst nach dem Aufkommen von Cloud Computing hat „Big Data“ seinen wahren Wert hervorgehoben. Manche Leute vergleichen verschiedene „Big Data“-Anwendungen lebhaft mit „Autos“, und die „Autobahn“, die den Betrieb dieser „Autos“ unterstützt, ist Cloud Computing. Das bekannteste Beispiel ist die Suchmaschine Google. Angesichts der riesigen Mengen an Webdaten schlug Google 2006 erstmals das Konzept des Cloud Computing vor. Was verschiedene „Big Data“-Anwendungen innerhalb von Google unterstützt, ist der von Google selbst entwickelte Cloud-Computing-Server.
Weitere verwandte Artikel finden Sie auf der
Chinesischen PHP-WebsiteDas obige ist der detaillierte Inhalt vonWas ist der Ursprung von Big Data?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Fähigkeiten zur Verarbeitung von Big-Data-Strukturen: Chunking: Teilen Sie den Datensatz auf und verarbeiten Sie ihn in Blöcken, um den Speicherverbrauch zu reduzieren. Generator: Generieren Sie Datenelemente einzeln, ohne den gesamten Datensatz zu laden, geeignet für unbegrenzte Datensätze. Streaming: Lesen Sie Dateien oder fragen Sie Ergebnisse Zeile für Zeile ab, geeignet für große Dateien oder Remote-Daten. Externer Speicher: Speichern Sie die Daten bei sehr großen Datensätzen in einer Datenbank oder NoSQL.

AEC/O (Architecture, Engineering & Construction/Operation) bezieht sich auf die umfassenden Dienstleistungen, die Architekturdesign, Ingenieurdesign, Bau und Betrieb in der Bauindustrie anbieten. Im Jahr 2024 steht die AEC/O-Branche angesichts des technologischen Fortschritts vor sich ändernden Herausforderungen. In diesem Jahr wird voraussichtlich die Integration fortschrittlicher Technologien stattfinden, was einen Paradigmenwechsel in Design, Bau und Betrieb einläuten wird. Als Reaktion auf diese Veränderungen definieren Branchen Arbeitsprozesse neu, passen Prioritäten an und verbessern die Zusammenarbeit, um sich an die Bedürfnisse einer sich schnell verändernden Welt anzupassen. Die folgenden fünf großen Trends in der AEC/O-Branche werden im Jahr 2024 zu Schlüsselthemen und empfehlen den Weg in eine stärker integrierte, reaktionsfähigere und nachhaltigere Zukunft: integrierte Lieferkette, intelligente Fertigung

Im Internetzeitalter ist Big Data zu einer neuen Ressource geworden. Mit der kontinuierlichen Verbesserung der Big-Data-Analysetechnologie ist die Nachfrage nach Big-Data-Programmierung immer dringlicher geworden. Als weit verbreitete Programmiersprache sind die einzigartigen Vorteile von C++ bei der Big-Data-Programmierung immer deutlicher hervorgetreten. Im Folgenden werde ich meine praktischen Erfahrungen in der C++-Big-Data-Programmierung teilen. 1. Auswahl der geeigneten Datenstruktur Die Auswahl der geeigneten Datenstruktur ist ein wichtiger Bestandteil beim Schreiben effizienter Big-Data-Programme. In C++ gibt es eine Vielzahl von Datenstrukturen, die wir verwenden können, z. B. Arrays, verknüpfte Listen, Bäume, Hash-Tabellen usw.

1. Hintergrund des Baus der 58-Portrait-Plattform Zunächst möchte ich Ihnen den Hintergrund des Baus der 58-Portrait-Plattform mitteilen. 1. Das traditionelle Denken der traditionellen Profiling-Plattform reicht nicht mehr aus. Der Aufbau einer Benutzer-Profiling-Plattform basiert auf Data-Warehouse-Modellierungsfunktionen, um Daten aus mehreren Geschäftsbereichen zu integrieren, um genaue Benutzerporträts zu erstellen Und schließlich muss es über Datenplattformfunktionen verfügen, um Benutzerprofildaten effizient zu speichern, abzufragen und zu teilen sowie Profildienste bereitzustellen. Der Hauptunterschied zwischen einer selbst erstellten Business-Profiling-Plattform und einer Middle-Office-Profiling-Plattform besteht darin, dass die selbst erstellte Profiling-Plattform einen einzelnen Geschäftsbereich bedient und bei Bedarf angepasst werden kann. Die Mid-Office-Plattform bedient mehrere Geschäftsbereiche und ist komplex Modellierung und bietet allgemeinere Funktionen. 2.58 Benutzerporträts vom Hintergrund der Porträtkonstruktion im Mittelbahnsteig 58

Im heutigen Big-Data-Zeitalter sind Datenverarbeitung und -analyse zu einer wichtigen Unterstützung für die Entwicklung verschiedener Branchen geworden. Als Programmiersprache mit hoher Entwicklungseffizienz und überlegener Leistung hat die Go-Sprache im Bereich Big Data nach und nach Aufmerksamkeit erregt. Im Vergleich zu anderen Sprachen wie Java, Python usw. verfügt die Go-Sprache jedoch über eine relativ unzureichende Unterstützung für Big-Data-Frameworks, was einigen Entwicklern Probleme bereitet hat. In diesem Artikel werden die Hauptgründe für das Fehlen eines Big-Data-Frameworks in der Go-Sprache untersucht, entsprechende Lösungen vorgeschlagen und anhand spezifischer Codebeispiele veranschaulicht. 1. Gehen Sie zur Sprache

Die Produkteinführung im Herbst 2023 von Yizhiwei ist erfolgreich abgeschlossen! Lassen Sie uns gemeinsam die Highlights der Konferenz Revue passieren lassen! 1. Intelligente, integrative Offenheit, die es digitalen Zwillingen ermöglicht, produktiv zu werden. Ning Haiyuan, Mitbegründer von Kangaroo Cloud und CEO von Yizhiwei, sagte in seiner Eröffnungsrede: Beim diesjährigen strategischen Treffen des Unternehmens haben wir die Hauptrichtung der Produktforschung und -entwicklung als festgelegt „Intelligente inklusive Offenheit“ „Drei Kernfähigkeiten“, wobei wir uns auf die drei Kernschlüsselwörter „intelligente inklusive Offenheit“ konzentrieren, schlagen wir außerdem das Entwicklungsziel vor, „digitale Zwillinge zu einer Produktivkraft zu machen“. 2. EasyTwin: Entdecken Sie eine neue Digital-Twin-Engine, die einfacher zu verwenden ist 1. Erkunden Sie von 0.1 bis 1.0 weiterhin die Digital-Twin-Fusion-Rendering-Engine, um bessere Lösungen mit ausgereiftem 3D-Bearbeitungsmodus, praktischen interaktiven Blaupausen und umfangreichen Modellressourcen zu erhalten

Als Open-Source-Programmiersprache hat die Go-Sprache in den letzten Jahren nach und nach große Aufmerksamkeit und Verwendung gefunden. Es wird von Programmierern wegen seiner Einfachheit, Effizienz und leistungsstarken Funktionen zur gleichzeitigen Verarbeitung bevorzugt. Auch im Bereich der Big-Data-Verarbeitung verfügt die Go-Sprache über großes Potenzial. Sie kann zur Verarbeitung großer Datenmengen, zur Leistungsoptimierung und zur guten Integration in verschiedene Big-Data-Verarbeitungstools und Frameworks eingesetzt werden. In diesem Artikel stellen wir einige grundlegende Konzepte und Techniken der Big-Data-Verarbeitung in der Go-Sprache vor und zeigen anhand spezifischer Codebeispiele, wie die Go-Sprache verwendet wird.

Bei der Verarbeitung großer Datenmengen kann die Verwendung einer In-Memory-Datenbank (z. B. Aerospike) die Leistung von C++-Anwendungen verbessern, da sie Daten im Computerspeicher speichert, wodurch Festplatten-E/A-Engpässe vermieden und die Datenzugriffsgeschwindigkeiten erheblich erhöht werden. Praxisbeispiele zeigen, dass die Abfragegeschwindigkeit bei Verwendung einer In-Memory-Datenbank um mehrere Größenordnungen schneller ist als bei Verwendung einer Festplattendatenbank.