Polar berechnet Perzentile
Ich habe einen polaren Datenrahmen mit einer Spalte mit Datumsangaben und anderen Spalten mit Preisen, und ich möchte das Perzentil für jede Spalte in einem Fenster mit 252 x 3 Beobachtungen berechnen.
Dazu mache ich Folgendes:
prices = prices.sort(by=["date"]) rank_cols = list(set(prices.columns).difference("date")) percentiles = ( prices.sort(by=["date"]) .set_sorted("date") .group_by_dynamic( index_column=["date"], every="1i", start_by="window", period="756i" ) .agg( [ (pl.col(col).rank() * 100.0 / pl.col(col).count()).alias( f"{col}_percentile" ) for col in rank_cols ] ) )
Aber die ausgelöste Ausnahme ist:
traceback (most recent call last): file "<string>", line 6, in <module> file "/usr/local/lib/python3.10/site-packages/polars/dataframe/group_by.py", line 1047, in agg self.df.lazy() file "/usr/local/lib/python3.10/site-packages/polars/lazyframe/frame.py", line 1706, in collect return wrap_df(ldf.collect()) polars.exceptions.invalidoperationerror: argument in operation 'group_by_dynamic' is not explicitly sorted - if your data is already sorted, set the sorted flag with: '.set_sorted()'. - if your data is not sorted, sort the 'expr/series/column' first.
Im Code habe ich wie vorgeschlagen vorgegangen, aber die Ausnahme besteht weiterhin.
Herausgeber:
Nehmen Sie einige Änderungen vor, wie von @hericks vorgeschlagen.
import polars as pl import pandas as pd from datetime import datetime, timedelta # generate 10 dates starting from today start_date = datetime.now().date() date_list = [start_date + timedelta(days=i) for i in range(10)] # generate random prices for each date and column data = { 'date': date_list, 'asset_1': [float(f"{i+1}.{i+2}") for i in range(10)], 'asset_2': [float(f"{i+2}.{i+3}") for i in range(10)], 'asset_3': [float(f"{i+3}.{i+4}") for i in range(10)], } prices = pl.dataframe(data) prices = prices.cast({"date": pl.date}) rank_cols = list(set(prices.columns).difference("date")) percentiles = ( prices.sort(by=["date"]) .set_sorted("date") .group_by_dynamic( index_column="date", every="1i", start_by="window", period="4i" ) .agg( [ (pl.col(col).rank() * 100.0 / pl.col(col).count()).alias( f"{col}_percentile" ) for col in rank_cols ] ) )
Jetzt verstehe ich
pyo3_runtime.panicexception: attempt to divide by zero
Edit 2:
Das Problem war die Verwendung des Datums. Ich habe das Datum durch eine Ganzzahl geändert und dann war das Problem gelöst. (Auch hinzugefügt, um sich zuerst anzumelden)
import polars as pl int_list = [i+1 for i in range(6)] # Generate random prices for each date and column data = { 'int_index': int_list, 'asset_1': [1.1, 3.4, 2.6, 4.8, 7.4, 3.2], 'asset_2': [4, 7, 8, 3, 4, 5], 'asset_3': [1, 3, 10, 20, 2, 4], } # Convert the Pandas DataFrame to a Polars DataFrame prices = pl.DataFrame(data) rank_cols = list(set(prices.columns).difference("int_index")) percentiles = ( prices.sort(by="int_index") .set_sorted("int_index") .group_by_dynamic( index_column="int_index", every="1i", start_by="window", period="4i" ) .agg( [ (pl.col(col).rank().first() * 100.0 / pl.col(col).count()).alias( f"{col}_percentile" ) for col in rank_cols ] ) )
Edit 3:
Die Idee dahinter ist, dass Index i die Werte bei Index i, i+1, i+2, i+3 nimmt und den Perzentilrang des Registers i in Bezug auf diese vier Werte berechnet.
Für den ersten Index (1) in asset_1 lautet das Beispiel (und die nächsten drei Register) beispielsweise:
1,1, 3,4, 2,6, 4,8, also beträgt das Perzentil des ersten Registers 25
Für Asset_1 lautet das zweite Indexbeispiel (2) (und die nächsten drei Register):
3,4, 2,6, 4,8 und 7,4, das Perzentil beträgt also 50.
Richtige Antwort
Ich schätze immer noch, was Ihre erwartete Antwort ist, aber Sie können wahrscheinlich mit dieser beginnen
Also, unter Berücksichtigung Ihrer Beispieldaten:
import polars as pl # generate random prices for each date and column prices = pl.dataframe({ 'int_index': range(6), 'asset_1': [1.1, 3.4, 2.6, 4.8, 7.4, 3.2], 'asset_2': [4, 7, 8, 3, 4, 5], 'asset_3': [1, 3, 10, 20, 2, 4], }) ┌───────────┬─────────┬─────────┬─────────┐ │ int_index ┆ asset_1 ┆ asset_2 ┆ asset_3 │ │ --- ┆ --- ┆ --- ┆ --- │ │ i64 ┆ f64 ┆ i64 ┆ i64 │ ╞═══════════╪═════════╪═════════╪═════════╡ │ 0 ┆ 1.1 ┆ 4 ┆ 1 │ │ 1 ┆ 3.4 ┆ 7 ┆ 3 │ │ 2 ┆ 2.6 ┆ 8 ┆ 10 │ │ 3 ┆ 4.8 ┆ 3 ┆ 20 │ │ 4 ┆ 7.4 ┆ 4 ┆ 2 │ │ 5 ┆ 3.2 ┆ 5 ┆ 4 │ └───────────┴─────────┴─────────┴─────────┘
Verwenden Sie rolling()
创建窗口,然后(与您在问题中所做的相同) - rank().first()
除以 count()
、name.suffix()
, um der Spalte einen neuen Namen zuzuweisen:
cols = pl.all().exclude('int_index') percentiles = ( prices.sort(by="int_index") .rolling(index_column="int_index", period="4i", offset="0i", closed="left") .agg((cols.rank().first() * 100 / cols.count()).name.suffix('_percentile')) ) ┌───────────┬────────────────────┬────────────────────┬────────────────────┐ │ int_index ┆ asset_1_percentile ┆ asset_2_percentile ┆ asset_3_percentile │ │ --- ┆ --- ┆ --- ┆ --- │ │ i64 ┆ f64 ┆ f64 ┆ f64 │ ╞═══════════╪════════════════════╪════════════════════╪════════════════════╡ │ 0 ┆ 25.0 ┆ 50.0 ┆ 25.0 │ │ 1 ┆ 50.0 ┆ 75.0 ┆ 50.0 │ │ 2 ┆ 25.0 ┆ 100.0 ┆ 75.0 │ │ 3 ┆ 66.666667 ┆ 33.333333 ┆ 100.0 │ │ 4 ┆ 100.0 ┆ 50.0 ┆ 50.0 │ │ 5 ┆ 100.0 ┆ 100.0 ┆ 100.0 │ └───────────┴────────────────────┴────────────────────┴────────────────────┘
Sie können auch den Inhalt in jedem Fenster überprüfen:
( prices.sort(by="int_index") .rolling(index_column="int_index", period="4i", offset="0i", closed="left") .agg(cols) ) ┌───────────┬───────────────────┬─────────────┬───────────────┐ │ int_index ┆ asset_1 ┆ asset_2 ┆ asset_3 │ │ --- ┆ --- ┆ --- ┆ --- │ │ i64 ┆ list[f64] ┆ list[i64] ┆ list[i64] │ ╞═══════════╪═══════════════════╪═════════════╪═══════════════╡ │ 0 ┆ [1.1, 3.4, … 4.8] ┆ [4, 7, … 3] ┆ [1, 3, … 20] │ │ 1 ┆ [3.4, 2.6, … 7.4] ┆ [7, 8, … 4] ┆ [3, 10, … 2] │ │ 2 ┆ [2.6, 4.8, … 3.2] ┆ [8, 3, … 5] ┆ [10, 20, … 4] │ │ 3 ┆ [4.8, 7.4, 3.2] ┆ [3, 4, 5] ┆ [20, 2, 4] │ │ 4 ┆ [7.4, 3.2] ┆ [4, 5] ┆ [2, 4] │ │ 5 ┆ [3.2] ┆ [5] ┆ [4] │ └───────────┴───────────────────┴─────────────┴───────────────┘
Das obige ist der detaillierte Inhalt vonPolar berechnet Perzentile. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Dieses Tutorial zeigt, wie man Python verwendet, um das statistische Konzept des Zipf -Gesetzes zu verarbeiten, und zeigt die Effizienz des Lesens und Sortierens großer Textdateien von Python bei der Bearbeitung des Gesetzes. Möglicherweise fragen Sie sich, was der Begriff ZiPF -Verteilung bedeutet. Um diesen Begriff zu verstehen, müssen wir zunächst das Zipf -Gesetz definieren. Mach dir keine Sorgen, ich werde versuchen, die Anweisungen zu vereinfachen. Zipf -Gesetz Das Zipf -Gesetz bedeutet einfach: In einem großen natürlichen Sprachkorpus erscheinen die am häufigsten vorkommenden Wörter ungefähr doppelt so häufig wie die zweiten häufigen Wörter, dreimal wie die dritten häufigen Wörter, viermal wie die vierten häufigen Wörter und so weiter. Schauen wir uns ein Beispiel an. Wenn Sie sich den Brown Corpus in amerikanischem Englisch ansehen, werden Sie feststellen, dass das häufigste Wort "Th ist

In diesem Artikel wird erklärt, wie man schöne Suppe, eine Python -Bibliothek, verwendet, um HTML zu analysieren. Es beschreibt gemeinsame Methoden wie find (), find_all (), select () und get_text () für die Datenextraktion, die Behandlung verschiedener HTML -Strukturen und -Anternativen (SEL)

Dieser Artikel vergleicht TensorFlow und Pytorch für Deep Learning. Es beschreibt die beteiligten Schritte: Datenvorbereitung, Modellbildung, Schulung, Bewertung und Bereitstellung. Wichtige Unterschiede zwischen den Frameworks, insbesondere bezüglich des rechnerischen Graps

Serialisierung und Deserialisierung von Python-Objekten sind Schlüsselaspekte eines nicht trivialen Programms. Wenn Sie etwas in einer Python -Datei speichern, führen Sie eine Objektserialisierung und Deserialisierung durch, wenn Sie die Konfigurationsdatei lesen oder auf eine HTTP -Anforderung antworten. In gewisser Weise sind Serialisierung und Deserialisierung die langweiligsten Dinge der Welt. Wen kümmert sich um all diese Formate und Protokolle? Sie möchten einige Python -Objekte bestehen oder streamen und sie zu einem späteren Zeitpunkt vollständig abrufen. Dies ist eine großartige Möglichkeit, die Welt auf konzeptioneller Ebene zu sehen. Auf praktischer Ebene können das von Ihnen ausgewählte Serialisierungsschema, Format oder Protokoll jedoch die Geschwindigkeit, Sicherheit, den Status der Wartungsfreiheit und andere Aspekte des Programms bestimmen

Das Statistikmodul von Python bietet leistungsstarke Datenstatistikanalysefunktionen, mit denen wir die allgemeinen Merkmale von Daten wie Biostatistik und Geschäftsanalyse schnell verstehen können. Anstatt Datenpunkte nacheinander zu betrachten, schauen Sie sich nur Statistiken wie Mittelwert oder Varianz an, um Trends und Merkmale in den ursprünglichen Daten zu ermitteln, die möglicherweise ignoriert werden, und vergleichen Sie große Datensätze einfacher und effektiv. In diesem Tutorial wird erläutert, wie der Mittelwert berechnet und den Grad der Dispersion des Datensatzes gemessen wird. Sofern nicht anders angegeben, unterstützen alle Funktionen in diesem Modul die Berechnung der Mittelwert () -Funktion, anstatt einfach den Durchschnitt zu summieren. Es können auch schwimmende Punktzahlen verwendet werden. zufällig importieren Statistiken importieren Aus Fracti

In diesem Tutorial lernen Sie, wie Sie mit den Fehlerbedingungen in Python umgehen, aus Sicht des Systems. Fehlerbehandlung ist ein kritischer Aspekt des Designs und überschreitet von den niedrigsten Ebenen (manchmal der Hardware) bis zu den Endbenutzern. Wenn y

In dem Artikel werden beliebte Python-Bibliotheken wie Numpy, Pandas, Matplotlib, Scikit-Learn, TensorFlow, Django, Flask und Anfragen erörtert, die ihre Verwendung in wissenschaftlichen Computing, Datenanalyse, Visualisierung, maschinellem Lernen, Webentwicklung und h beschreiben

Dieses Tutorial baut auf der vorherigen Einführung in die schöne Suppe auf und konzentriert sich auf DOM -Manipulation über die einfache Baumnavigation hinaus. Wir werden effiziente Suchmethoden und -techniken zur Änderung der HTML -Struktur untersuchen. Eine gemeinsame DOM -Suchmethode ist Ex
