Inhaltsverzeichnis
Anpassen der Datenkomplexität durch die syntaktischen Eigenschaften von PCFG
Messung der syntaktischen Komplexität mit der Komprimierbarkeit von gzip
Ist das Skalierungsgesetz empfindlich gegenüber der Datenkomplexität?
Berechnen Sie das datensensitive Skalierungsgesetz basierend auf dem gzip-Komprimierbarkeitsverhältnis
Eliminieren Sie syntaktische Parameter als störende Variable bei der Kompressibilität.
Heim Technologie-Peripheriegeräte KI Haben unterschiedliche Datensätze unterschiedliche Skalierungsgesetze? Und Sie können es mit einem Komprimierungsalgorithmus vorhersagen

Haben unterschiedliche Datensätze unterschiedliche Skalierungsgesetze? Und Sie können es mit einem Komprimierungsalgorithmus vorhersagen

Jun 07, 2024 pm 05:51 PM
ai 模型

Generell gilt: Je mehr Berechnungen zum Trainieren eines neuronalen Netzwerks erforderlich sind, desto besser ist seine Leistung. Bei der Skalierung einer Berechnung muss eine Entscheidung getroffen werden: Erhöhen Sie die Anzahl der Modellparameter oder erhöhen Sie die Größe des Datensatzes – beide Faktoren müssen innerhalb eines festen Rechenbudgets abgewogen werden. Der Vorteil einer Erhöhung der Anzahl der Modellparameter besteht darin, dass dadurch die Komplexität und Ausdrucksfähigkeit des Modells verbessert und dadurch die Trainingsdaten besser angepasst werden können. Zu viele Parameter können jedoch zu einer Überanpassung führen, wodurch das Modell bei unsichtbaren Daten eine schlechte Leistung erbringt. Andererseits kann die Erweiterung der Datensatzgröße die Generalisierungsfähigkeit des Modells verbessern und Überanpassungsprobleme reduzieren.

Wir sagen Ihnen: Solange Parameter und Daten angemessen zugeordnet werden können, kann die Leistung unter einem festgelegten Rechenbudget maximiert werden. Viele frühere Studien haben das Skalierungsgesetz neuronaler Sprachmodelle untersucht und diese Studien kamen normalerweise zu dem Schluss, dass die Parameter und die Anzahl der Trainingstoken eins zu eins erweitert werden sollten.

Allerdings basierte die frühere Sprachmodell-Skalierungsgesetzforschung auf Transformer, die auf verstreutem Netzwerktext trainiert wurden. Da es sich um eine sehr spezifische Datenverteilung handelt, stellen wir uns natürlich die Frage: Kann das auf der Grundlage eines solchen Webtextdatensatzes ermittelte Skalierungsgesetz auf andere Verteilungen verallgemeinert werden?

Zusätzlich zum aktuellen Sprachmodell (d. h. Chinchilla), das nur für den speziellen Fall von Netzwerktextdaten gilt, gibt es dahinter ein umfassenderes Skalierungsgesetz, das auf den Attributen von Trainingsdaten basiert. Wenn man bedenkt, dass eine Verbesserung der Datenqualität die Leistung von Sprachmodellen erheblich verbessern kann, kann das Skalierungsgesetz des Verstärkungslernens mit der Intensität des Spiels skalieren. Vielleicht können wir davon ausgehen, dass das Skalierungsgesetz des aktuellen Sprachmodells (z. B. Chinchilla) nur für den speziellen Fall von Netzwerktextdaten gilt und dass dahinter ein umfassenderes Skalierungsgesetz steht, das auf den Attributen der Trainingsdaten basiert.

Welche Eigenschaften des für das Training verwendeten Token-Sequenzdatensatzes reagieren also empfindlich auf das neuronale Skalierungsgesetz? Mit anderen Worten: Welche Eigenschaften der Daten sollten wir beachten, wenn wir genau vorhersagen möchten, wie wir die Berechnungen am besten dem Trainingsprozess zuordnen können? Ist die datenabhängige Natur des Skalierungsgesetzes außerdem nur eine theoretische Frage oder ist sie auch für Datensätze aus der realen Welt wichtig?

Um diese Probleme zu untersuchen, hat Rohan Pandey, ein Forscher beim KI-Datenunternehmen Reworkd, einige Nachforschungen angestellt und Antworten auf diese Fragen erhalten. Darüber hinaus schlug er einen Komprimierungsalgorithmus gzip vor, der Vorhersagen treffen kann der Einfluss der Datenkomplexität auf Expansionseigenschaften.

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

  • Papiertitel: gzip sagt datenabhängige Skalierungsgesetze voraus
  • Papierlink: https://arxiv.org/pdf/2405.16684

Seine Forschungsmethode ist: Sie kann intuitiv sein Unter der Einstellung von Textdaten, die die Komplexität steuern, verwenden wir Methoden der Informationstheorie, um die Gründe für die Datenabhängigkeit des Skalierungsgesetzes zu verstehen.

Die Einstellung, die er schließlich fand, heißt Probabilistic Context-Free Grammar (PCFG, erstmals 1956 von Chomsky vorgeschlagen). Diese Einstellung ist relativ natürlich (kann natürliche Sprache, Code usw. modellieren), weist eine kontrollierbare syntaktische Komplexität auf und folgt einigen gut verstandenen Prinzipien der Informationstheorie.

In dem Experiment generierte er durch Anpassen der syntaktischen Eigenschaften von PCFG 6 Datensätze mit unterschiedlicher Komplexität. Für jeden Datensatz trainierte er 6 Sprachmodelle unterschiedlicher Größe (Parameter von 4,4 Millionen bis 1,4 Milliarden) und zeichnete die Ergebnisse dieser Sprachmodelle in 6 verschiedenen Trainingsschritten (100.000 bis 100 Millionen Token) auf. Anschließend passte er jedem Datensatz ein Skalierungsgesetz an und stellte fest, dass die Parameter des Skalierungsgesetzes mit der syntaktischen Komplexität erheblich variierten. Im Anschluss an frühere Arbeiten zur Entropie in formalen Grammatiken verwendete er für die Komplexitätsmetrik die mittlere Kompressibilität jeder Token-Sequenz im Datensatz, die mit gzip leicht berechnet werden kann.

Es wurde festgestellt, dass sich die optimale Grenze der Skalierungsgesetzberechnung mit abnehmender (komplexerer) Komprimierbarkeit der Trainingsdaten allmählich von der Parametermenge zur Datengröße verschiebt. Anschließend maß er die Komprimierbarkeit von realem Code und Datensätzen natürlicher Sprache und stellte fest, dass ersterer komprimierbarer war und daher voraussichtlich anderen Skalierungsgesetzen gehorchte.

Anpassen der Datenkomplexität durch die syntaktischen Eigenschaften von PCFG

Probabilistische kontextfreie Grammatik (PCFG) ist ein grundlegendes Werkzeug in der Computerlinguistik, das zur Modellierung der Syntax natürlicher Sprachen verwendet werden kann. PCFG ist eine Erweiterung der standardmäßigen kontextfreien Grammatik (CFG), die Wahrscheinlichkeiten in den Generierungsregeln zuordnet und so die Mehrdeutigkeit und Variabilität der Sprache auf quantifizierbare Weise darstellt. Diese Grammatiken erzeugen Bäume, in denen jeder Knoten eine syntaktische Kategorie darstellt und jede Kante eine generative Regel darstellt, die zum Generieren von Sätzen verwendet wird. Beim Generieren von Sätzen aus einem PCFG werden Sequenzen angewendeter Generierungsregeln probabilistisch abgetastet, bis alle Blattknoten des Baums Endpunkte (tatsächliche lexikalische Token) sind.

Wir können die syntaktischen Eigenschaften von PCFG steuern, um die Komplexität von Textdatensätzen auf natürliche Weise anzupassen. Zu den Parametern, die die PCFG-Erstellungsfunktion akzeptieren kann, gehören insbesondere: die Anzahl der Endpunkte, Daten für Nicht-Endpunkte, die maximale Länge der rechten Seite der Generierungsregel und die maximale Anzahl zulässiger Generierungsregeln für alle Nicht-Endpunkte ( Wenn dieser Wert 1 ist, erhalten die angegebenen Nicht-Endpunkte immer die gleiche rechte Seite. Intuitiv führt eine Erhöhung jedes der oben genannten Werte zu einer Erhöhung der syntaktischen Komplexität.

Um ein PCFG basierend auf den oben genannten Parametern zu erstellen, wählen Sie für jeden Endpunkt zufällig seine Anzahl an Generationen (RHS-Option) und die Länge jeder dieser Generationen aus, instanziieren Sie die Generierungsregeln durch zufällige Stichproben aus den Endpunkten und nicht- Endpunkte und es wird eine Wahrscheinlichkeit zugewiesen (normalisiert durch die gesamten RHS-Optionen für Nicht-Endpunkte). Sammeln Sie dann alle generierten Regeln für alle Nicht-Endpunkte und instanziieren Sie eine Grammatik mithilfe des auf NLTK basierenden PCFG-Pakets.

Dann verwenden Sie diese Grammatik (zufällig unter bestimmten Einschränkungen erstellt), um Sätze probabilistisch abzutasten und einen Token-Sequenz-Datensatz zu erstellen. Um es später einfacher zu machen, das Training verschiedener Grammatiken zu vergleichen (wodurch Sätze mit unterschiedlicher durchschnittlicher Länge generiert werden), beschloss er, die Sätze in Dokumenten mit der gleichen Anzahl von Token zusammenzufassen. Fahren Sie mit dem Abtasten von Sätzen basierend auf der Grammatik fort, bis die Kontextlänge gefüllt ist. Bei einem Überlauf wird der Satz direkt abgeschnitten.

Sätze bestehen aus Endpunkten, die nur Ganzzahlen sind, sodass sie als Token-IDs des Sprachmodells betrachtet werden können. Die nicht verwendete Ganzzahl 0 (die effektiv einem Punkt in natürlicher Sprache entspricht) wird zum Verbinden der Sätze verwendet. Zur Klarstellung: Hier geht es nicht darum, einen String zu generieren, der wie natürliche Sprache „aussieht“, und ihn dann zu tokenisieren – PCFG generiert direkt die Sequenz der Token-ID selbst. Nun können 6 Token-Sequenzdatensätze mit unterschiedlicher Komplexität basierend auf 6 Sätzen anfänglicher grammatikalischer Einschränkungen generiert werden.

Messung der syntaktischen Komplexität mit der Komprimierbarkeit von gzip

Um die Komplexität generierter Datensätze sowie realer Datensätze abzuschätzen, entschied sich Rohan Pandey für die Verwendung eines Komprimierungsalgorithmus namens gzip.

Ein Vorteil von gzip besteht darin, dass es eine gute theoretische Forschungsgrundlage gibt, die Folgendes zeigt: Die Kompressibilität ist umgekehrt proportional zur Entropie und die Entropie ist direkt proportional zur syntaktischen Komplexität. Verwenden Sie insbesondere für jede Token-Sequenz von 1000 Token im Datensatz gzip und berechnen Sie das Verhältnis der Größe (in Bytes) der komprimierten Daten zu den Originaldaten.

Dann werden der Median und die Standardabweichung des Kompressibilitätsverhältnisses berechnet, um zu bestätigen, dass Grammatiken mit höherer syntaktischer Komplexität dazu führen, dass der Datensatz schwieriger zu komprimieren ist.

Tabelle 1 listet die syntaktischen Parameter und gemessenen Komprimierungsverhältnisse jeder Grammatik auf.

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

Es kann beobachtet werden, dass mit zunehmendem Nicht-Endpunkt (Grammatikkategorie), Endpunkt (Token), rechtsseitiger Option und rechtsseitiger Länge auch die gzip-Komprimierungsrate zunimmt, das heißt wird schwieriger zu komprimieren.

Abbildung 1 zeigt diese Datensätze zusammen mit natürlichen Sprach- und Codedaten.

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

Es ist ersichtlich, dass einige PCFG-Datensätze in Bezug auf die Komplexität den Codedaten (dem leicht komprimierbaren Teil) nahe kommen, während andere der natürlichen Sprache nahe kommen.

Ist das Skalierungsgesetz empfindlich gegenüber der Datenkomplexität?

Um das Skalierungsgesetz des Datensatzes zu bestimmen, trainierte der Forscher mehrere Modelle unterschiedlicher Größe (Parameter 4,2 M, 8,8 M, 20,3 M, 59,0 M, 275,3 M, 1,4 B). Tabelle 6 gibt die Architektur an Details; dann führte er eine Potenzgesetzanpassung an den erhaltenen Verlustergebnissen durch. Die meisten Experimente wurden auf 4 NVIDIA A100 mit 80 GB VRAM unter Verwendung von PyTorch FSDP durchgeführt.

Wie in Abbildung 2 dargestellt, konvergiert das Modell schneller, wenn ein Datensatz leichter zu komprimieren ist (je niedriger die Kompressibilitätsrate). Dies steht im Einklang mit unserem intuitiven Verständnis.

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

Obwohl dies darauf hindeutet, dass wir mehr Rechenaufwand benötigen, um komplexere Datensätze zu modellieren, benötigen wir mehr Beweise, um festzustellen, ob sich die rechnerische optimale Grenze direkt als Funktion der Datenkomplexität ändert. Um die nicht triviale Empfindlichkeit des Skalierungsgesetzes gegenüber der Datenkomplexität festzustellen, muss man das Skalierungsgesetz für jeden Datensatz berechnen und seine Anpassungsparameter untersuchen.

Berechnen Sie das datensensitive Skalierungsgesetz basierend auf dem gzip-Komprimierbarkeitsverhältnis

Die funktionale Form des 2022 vorgeschlagenen Skalierungsgesetzes besteht darin, den Trainingsverlust als Funktion des Modells und der Datengröße zu verwenden :

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

Wobei N die Anzahl der Parameter des Modells und D die Anzahl der Token im Trainingsdatensatz ist. Sie behaupten, dass E „die Entropie des natürlichen Textes“ sei und dass das Skalierungsgesetz „datensatzunabhängig“ sei. Als Rohan Pandey jedoch die Trainingsergebnisse mit dieser Funktion an den PCFG-Datensatz anpasste, stellte er fest, dass das Skalierungsgesetz jedes Datensatzes sehr unterschiedlich war, siehe Tabelle 2.

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

Mit diesem Skalierungsgesetz kann eine rechnerisch optimale Grenze für die Parametermenge ermittelt werden (abgeleitet von Kaplan et al. [2020] und Hoffmann et al. [2022]), die vereinfacht werden kann zu:

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

wobei C das Berechnungsbudget in FLOPs ist.

Abbildung 3 zeigt Chinchillas berechnete optimale Grenzen und das an jeden PCFG-Datensatz angepasste Skalierungsgesetz.

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

Da die Daten immer schwieriger zu komprimieren sind, wird die Grenze des durch Anpassen erhaltenen Skalierungsgesetzes allmählich in Richtung der Daten verschoben, irgendwo im Intervall von 0,23 < < 0,45 Der Punkt hat die Eins-zu-eins-Grenze von Chinchilla überschritten.

Um die Parameter des Skalierungsgesetzes basierend auf dem Kompressibilitätsverhältnis des Datensatzes vorherzusagen, kann eine einfache lineare Regressionsanpassung an den angepassten Parametern des Skalierungsgesetzes jedes Datensatzes durchgeführt werden. Wie bereits erwähnt, besteht die Methode zur Berechnung der Kompressibilitätsrate H für den Datensatz D darin, zunächst das Verhältnis der komprimierten Bitmenge zur ursprünglichen Bitmenge jedes Elements d zu berechnen und dann den Durchschnitt aller Elemente zu berechnen.

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

Sobald die Linien, die jeden Parameter (E, A, B, α, β) vorhersagen, aus H angepasst sind, kann jeder Parameter als Funktion der Kompressibilität neu definiert werden:

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

wobei m_x und n_x sind die Parameter der linearen Regression nach der Anpassung.

Tabelle 3 gibt diese angepassten Werte (und die p-Werte der Regression) an, und Abbildung 4 ist das Visualisierungsergebnis dieser linearen Regressionen.

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

Sie sind fast alle monoton fallend, nur mit unterschiedlichen Geschwindigkeiten, und bei H etwa 0,27 schneiden sich α und β. Es ist zu beachten, dass E (die ursprünglich auf eine Konstante festgelegte „Entropie der natürlichen Sprache“) der einzige Parameter ist, der mit H zunimmt (jedoch nicht signifikant).

Jetzt können Sie Gleichung (1) als Funktion der Kompressibilitätsrate H neu parametrisieren:

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

Da der Umfang des Experiments hier jedoch recht klein ist und sich hauptsächlich auf den PCFG-Datensatz konzentriert, hat Pandey die Funktion erweitert – nach der Anpassung von Chinchilla wurde das datenabhängige Skalierungsgesetz erhalten:

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

Wobei ε ist das Anpassungsgewicht für die gzip-Komprimierungsrate der Trainingsdaten, und der hinzugefügte Parameter ist die Chinchilla-Konstante.

Eliminieren Sie syntaktische Parameter als störende Variable bei der Kompressibilität.

Die obigen Experimente berücksichtigen nicht die Möglichkeit, dass dieses Kompressibilitätsmaß durch eine zugrunde liegende syntaktische Eigenschaft (z. B. die Vokabulargröße) verfälscht wird. Um dieses Problem anzugehen, zeigt Abbildung 5 zusätzliche Ergebnisse.

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

Es ist ersichtlich, dass die gzip-Komprimierbarkeitsrate immer noch die Parameteränderungen des Skalierungsgesetzes vorhersagen kann, wenn die Vokabulargröße stabil bleibt und andere syntaktische Eigenschaften geändert werden (Tabelle 4) (die Korrelation ist sogar stärker als die Vergrößerung des Vokabulars). Einstellungen).

Abbildung 6 ist ein in der Praxis gefundenes Gegenbeispiel, das zeigt, dass sich die Parameter des Skalierungsgesetzes nicht wesentlich ändern, wenn die syntaktischen Eigenschaften stark variieren (Tabelle 5), aber das endgültige gzip-Komprimierbarkeitsverhältnis dieser Datensätze gleich ist.

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它

Obwohl das Schnittverhalten wie in Abbildung 4 in diesem äquivalenten Vokabularfall nicht beobachtet wird, ist die Steigung von α immer noch steiler als β (A ist auch steiler als B), was dies mit gzip zeigt Mit zunehmender Kompressibilität gibt es die gleiche Tendenz gegenüber Daten.

Man kann also sagen, dass diese Ergebnisse Folgendes zeigen: Das Skalierungsgesetz hängt von den Trainingsdaten ab und das gzip-Komprimierbarkeitsverhältnis kann den Einfluss der Datenkomplexität auf die Skalierungseigenschaften gut vorhersagen.

Das obige ist der detaillierte Inhalt vonHaben unterschiedliche Datensätze unterschiedliche Skalierungsgesetze? Und Sie können es mit einem Komprimierungsalgorithmus vorhersagen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1671
14
PHP-Tutorial
1276
29
C#-Tutorial
1256
24
Schritte zum Hinzufügen und Löschen von Feldern zu MySQL -Tabellen Schritte zum Hinzufügen und Löschen von Feldern zu MySQL -Tabellen Apr 29, 2025 pm 04:15 PM

Fügen Sie in MySQL Felder mit alterTabletable_nameaddcolumnNew_columnvarchar (255) nach oben nachzusteuern. Beim Hinzufügen von Feldern müssen Sie einen Speicherort angeben, um die Abfrageleistung und die Datenstruktur zu optimieren. Vor dem Löschen von Feldern müssen Sie bestätigen, dass der Betrieb irreversibel ist. Die Änderung der Tabellenstruktur mithilfe von Online-DDL, Sicherungsdaten, Testumgebungen und Zeiträumen mit niedriger Last ist die Leistungsoptimierung und Best Practice.

Top 10 Handelsplattformen für digitale Währung: Top 10 sichere und zuverlässige Digitalwährungsbörsen Top 10 Handelsplattformen für digitale Währung: Top 10 sichere und zuverlässige Digitalwährungsbörsen Apr 30, 2025 pm 04:30 PM

Die Top 10 Top -Plattformen für virtuelle Währung sind: 1. Binance, 2. OKX, 3. Coinbase, 4. Kraken, 5. Huobi Global, 6. Bitfinex, 7. Kucoin, 8. Gemini, 9. Bitstamp, 10. Bittrex. Diese Plattformen bieten alle hohe Sicherheit und eine Vielzahl von Handelsoptionen, die für unterschiedliche Benutzeranforderungen geeignet sind.

Quantitative Exchange -Ranking 2025 Top 10 Empfehlungen für digitale Währung Quantitative Handels -Apps Quantitative Exchange -Ranking 2025 Top 10 Empfehlungen für digitale Währung Quantitative Handels -Apps Apr 30, 2025 pm 07:24 PM

Zu den integrierten Quantisierungstools am Austausch gehören: 1. Binance: Binance Futures Quantitatives Modul, niedrige Handhabungsgebühren und unterstützt AI-unterstützte Transaktionen. 2. OKX (OUYI): Unterstützt Multi-Account-Management und intelligentes Auftragsrouting und bietet Risikokontrolle auf institutioneller Ebene. Zu den unabhängigen quantitativen Strategieplattformen gehören: 3. 3Commas: Drag & drop-Strategiegenerator, geeignet für Multi-Plattform-Absicherungs-Arbitrage. 4. Viercy: Algorithmus-Strategie-Bibliothek auf professioneller Ebene, unterstützt maßgeschneiderte Risikoschwellen. 5. Pionex: Integrierte 16 voreingestellte Strategie, niedrige Transaktionsgebühr. Zu den vertikalen Domänen-Tools gehören: 6. CryptoHopper: Cloud-basierte quantitative Plattform, die 150 technische Indikatoren unterstützen. 7. Bitsgap:

So verwenden Sie MySQL -Funktionen für die Datenverarbeitung und Berechnung So verwenden Sie MySQL -Funktionen für die Datenverarbeitung und Berechnung Apr 29, 2025 pm 04:21 PM

MySQL -Funktionen können zur Datenverarbeitung und -berechnung verwendet werden. 1. Grundlegende Nutzung umfasst String -Verarbeitung, Datumsberechnung und mathematische Operationen. 2. Erweiterte Verwendung umfasst die Kombination mehrerer Funktionen zur Implementierung komplexer Vorgänge. 3. Die Leistungsoptimierung erfordert die Vermeidung der Verwendung von Funktionen in der WHERE -Klausel und der Verwendung von Gruppenby- und temporären Tabellen.

Wie erreicht die offizielle Website von Deepseek den Effekt des durchdringenden Maus -Scroll -Events? Wie erreicht die offizielle Website von Deepseek den Effekt des durchdringenden Maus -Scroll -Events? Apr 30, 2025 pm 03:21 PM

Wie kann man den Effekt der Penetration des Maus -Scroll -Ereignisses erreichen? Wenn wir im Internet stöbern, begegnen wir oft auf spezielle Interaktionsdesigns. Zum Beispiel auf der offiziellen Website von Deepseek � ...

Eine effiziente Möglichkeit, Daten in MySQL einzufügen Eine effiziente Möglichkeit, Daten in MySQL einzufügen Apr 29, 2025 pm 04:18 PM

Effiziente Methoden für das Batch -Einfügen von Daten in MySQL gehören: 1. Verwenden von InsertInto ... Wertesyntax, 2. Verwenden von LoadDatainFile -Befehl, 3. Verwendung der Transaktionsverarbeitung, 4. Stapelgröße anpassen, 5. Deaktivieren Sie die Indexierung, 6. Verwenden Sie die Einfügung oder einfügen.

EasProtocol.com implementiert den ISO 20022 -Nachrichtenstandard direkt als Blockchain -Smart -Vertrag EasProtocol.com implementiert den ISO 20022 -Nachrichtenstandard direkt als Blockchain -Smart -Vertrag Apr 30, 2025 pm 05:06 PM

Diese bahnbrechende Entwicklung wird es Finanzinstituten ermöglichen, den global anerkannten ISO20022 -Standard zu nutzen, um Bankverfahren über verschiedene Blockchain -Ökosysteme hinweg zu automatisieren. Das Easy Protocol ist eine Blockchain-Plattform auf Unternehmensebene, die die weit verbreitete Akzeptanz durch einfach zu verwendende Methoden fördert. Es gab heute bekannt, dass es den ISO20022 -Messaging -Standard erfolgreich integriert und direkt in Blockchain -Smart Contracts integriert hat. Diese Entwicklung wird es Finanzinstituten ermöglichen, Bankenprozesse in verschiedenen Blockchain -Ökosystemen mit dem global anerkannten ISO20022 -Standard zu automatisieren, der das Swift Messaging -System ersetzt. Diese Funktionen werden in Kürze auf "DEALETESTNET" ausprobiert. EasProtokolarchitektdou

So analysieren Sie den Ausführungsplan der MySQL -Abfrage So analysieren Sie den Ausführungsplan der MySQL -Abfrage Apr 29, 2025 pm 04:12 PM

Verwenden Sie den Befehl Erklärung, um den Ausführungsplan von MySQL -Abfragen zu analysieren. 1. Der Befehl Erklärung zeigt den Ausführungsplan der Abfrage an, um Leistungs Engpässe zu finden. 2. Der Ausführungsplan enthält Felder wie ID, SELECT_TYPE, TABLE, TYP, SOLY_KEYS, KEY, KEY_LEN, REF, Zeilen und Extra. 3. Nach dem Ausführungsplan können Sie Abfragen optimieren, indem Sie Indexes hinzufügen, vollständige Tabellen -Scans vermeiden, Join -Operationen optimieren und Overlay -Indizes verwenden.

See all articles