


Einführung in die Implementierung von Py-EVM durch Python Ethereum Virtual Machine
Dieser Artikel bietet Ihnen eine Einführung in die Implementierung von Py-EVM auf der Python Ethereum Virtual Machine. Ich hoffe, dass er Ihnen als Referenz dienen wird.
Py-EVM ist eine neue Implementierung der in Python geschriebenen Ethereum Virtual Machine. Derzeit 695 Sterne auf Github, befindet sich in der aktiven Entwicklung, wird aber durch die von Ethereum/test bereitgestellte Testsuite schnell weiterentwickelt. Wir sind dankbar, dass Vitalik und der vorhandene PyEthereum-Code schnelle Fortschritte machen konnten, da viele Designentscheidungen direkt von der PyEthereum-Codebasis inspiriert und sogar portiert wurden.
Py-EVM soll letztendlich die De-facto-Python-Implementierung von EVM sein und eine breite Palette von Anwendungsfällen für öffentliche und private Ketten bieten. Die Entwicklung wird sich auf die Erstellung einer EVM mit einer klar definierten API sowie einer benutzerfreundlichen und leicht verständlichen Dokumentation konzentrieren, die als voll funktionsfähiger Mainnet-Knoten ausgeführt werden kann.
Py-EVM zielt insbesondere darauf ab:
Eine Beispielimplementierung des EVM in Python bereitzustellen, einer der am weitesten verbreiteten und verständlichsten Sprachen.
Bietet eine Low-Level-API für Kunden zum Erstellen vollständiger oder leichter Knoten.
Leicht zu verstehen und zu ändern.
Sehr flexibel zur Unterstützung der Forschung sowie alternativer Anwendungsfälle wie private Blockchains.
Trinity
Während Py-EVM die Low-Level-API von EVM bereitstellt, ist es nicht für die direkte Implementierung vollständiger Knoten oder Light-Knoten konzipiert.
Wir bieten eine grundlegende Implementierung eines vollständigen Knotens namens Trinity basierend auf Py-EVM.
Möglicherweise wird es in Zukunft alternative Clients auf Basis von Py-EVM geben.
Schritt 1: Alpha-Release
Der Plan beginnt mit einem MVP-Release auf Alpha-Ebene, das für Testzwecke geeignet ist. Wir sind auf der Suche nach Early Adopters, die Feedback zu unserer Architektur und unseren API-Auswahlen sowie allgemeines Feedback und die Entdeckung von Fehlern geben.
Entwicklung
Py-EVM basiert auf einem gemeinsamen Test-Submodul für alle Clients, daher müssen Sie das Repo mit der Flagge --recursive klonen. Zum Beispiel:
git clone --recursive git@github.com:ethereum/py-evm.git
Py-EVM erfordert Python 3. Im Allgemeinen besteht der beste Weg, um eine saubere Python 3-Umgebung zu gewährleisten, darin, eine virtuelle Umgebung zu verwenden, zum Beispiel:
# once: $ virtualenv -p python3 venv # each session: $ . venv/bin/activate
und dann die erforderlichen Python-Pakete zu installieren über:
pip install -e .[dev]
Tests ausführen
Tests können ausgeführt werden mit:
pytest
oder Sie können tox
installieren, um die vollständige Testsuite auszuführen.
Veröffentlichung
Pandoc ist erforderlich, um die Markdown-README-Datei in das richtige Format für die ordnungsgemäße Darstellung auf Pypi zu konvertieren.
Für Debian-ähnliche Systeme:
apt install pandoc
Unter OSX:
brew install pandoc
So veröffentlichen Sie eine neue Version:
bumpversion $$VERSION_PART_TO_BUMP$$ git push && git push --tags make release
So erstellen Sie ein neues Docker-Image:
make create-docker-image version=<version>
Standardmäßig wird dadurch ein neues Bild mit zwei darauf verweisenden Tags erstellt:
ethereum/trinity:
ethereum /trinity: spätestens: (neueste, bis mit zukünftigem „neuesten“ überschrieben wird)
Dann an den Docker-Hub übertragen.
docker push ethereum/trinity:<version> # the following may be left out if we were pushing a patch for an older version docker push ethereum/trinity:latest
So verwenden Sie Bumpversion
Das Versionsformat dieses Repos ist {major}.{minor}.{patch} bedeutet stabil, {patch}.{minor }. {patch}-{stage}.{devnum} bedeutet instabil (Stufe kann Alpha oder Beta sein)).
Um die nächste Version zu veröffentlichen, verwenden Sie Bumpversion und geben Sie die anzupassenden Teile an, z. B. Bumpversion Minor oder Bumpversion Devnum.
Wenn Sie sich in der Beta-Version befinden, wird die Bumpversion-Stufe auf die stabile Version umgestellt.
Um eine instabile Version auszugeben, wenn die aktuelle Version stabil ist, geben Sie die neue Version explizit an, z. B. Bumpversion --new-version 4.0.0-alpha.1 devnum
Das obige ist der detaillierte Inhalt vonEinführung in die Implementierung von Py-EVM durch Python Ethereum Virtual Machine. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



PHP und Python haben ihre eigenen Vor- und Nachteile, und die Wahl hängt von den Projektbedürfnissen und persönlichen Vorlieben ab. 1.PHP eignet sich für eine schnelle Entwicklung und Wartung großer Webanwendungen. 2. Python dominiert das Gebiet der Datenwissenschaft und des maschinellen Lernens.

Effizientes Training von Pytorch -Modellen auf CentOS -Systemen erfordert Schritte, und dieser Artikel bietet detaillierte Anleitungen. 1.. Es wird empfohlen, YUM oder DNF zu verwenden, um Python 3 und Upgrade PIP zu installieren: Sudoyumupdatepython3 (oder sudodnfupdatepython3), PIP3Install-upgradepip. CUDA und CUDNN (GPU -Beschleunigung): Wenn Sie Nvidiagpu verwenden, müssen Sie Cudatool installieren

Python und JavaScript haben ihre eigenen Vor- und Nachteile in Bezug auf Gemeinschaft, Bibliotheken und Ressourcen. 1) Die Python-Community ist freundlich und für Anfänger geeignet, aber die Front-End-Entwicklungsressourcen sind nicht so reich wie JavaScript. 2) Python ist leistungsstark in Bibliotheken für Datenwissenschaft und maschinelles Lernen, während JavaScript in Bibliotheken und Front-End-Entwicklungsbibliotheken und Frameworks besser ist. 3) Beide haben reichhaltige Lernressourcen, aber Python eignet sich zum Beginn der offiziellen Dokumente, während JavaScript mit Mdnwebdocs besser ist. Die Wahl sollte auf Projektbedürfnissen und persönlichen Interessen beruhen.

Aktivieren Sie die Pytorch -GPU -Beschleunigung am CentOS -System erfordert die Installation von CUDA-, CUDNN- und GPU -Versionen von Pytorch. Die folgenden Schritte führen Sie durch den Prozess: Cuda und Cudnn Installation Bestimmen Sie die CUDA-Version Kompatibilität: Verwenden Sie den Befehl nvidia-smi, um die von Ihrer NVIDIA-Grafikkarte unterstützte CUDA-Version anzuzeigen. Beispielsweise kann Ihre MX450 -Grafikkarte CUDA11.1 oder höher unterstützen. Download und installieren Sie Cudatoolkit: Besuchen Sie die offizielle Website von Nvidiacudatoolkit und laden Sie die entsprechende Version gemäß der höchsten CUDA -Version herunter und installieren Sie sie, die von Ihrer Grafikkarte unterstützt wird. Installieren Sie die Cudnn -Bibliothek:

Docker verwendet Linux -Kernel -Funktionen, um eine effiziente und isolierte Anwendungsumgebung zu bieten. Sein Arbeitsprinzip lautet wie folgt: 1. Der Spiegel wird als schreibgeschützte Vorlage verwendet, die alles enthält, was Sie für die Ausführung der Anwendung benötigen. 2. Das Union File System (UnionFS) stapelt mehrere Dateisysteme, speichert nur die Unterschiede, speichert Platz und beschleunigt. 3. Der Daemon verwaltet die Spiegel und Container, und der Kunde verwendet sie für die Interaktion. 4. Namespaces und CGroups implementieren Container -Isolation und Ressourcenbeschränkungen; 5. Mehrere Netzwerkmodi unterstützen die Containerverbindung. Nur wenn Sie diese Kernkonzepte verstehen, können Sie Docker besser nutzen.

Bei der Auswahl einer Pytorch -Version unter CentOS müssen die folgenden Schlüsselfaktoren berücksichtigt werden: 1. Cuda -Version Kompatibilität GPU -Unterstützung: Wenn Sie NVIDIA -GPU haben und die GPU -Beschleunigung verwenden möchten, müssen Sie Pytorch auswählen, der die entsprechende CUDA -Version unterstützt. Sie können die CUDA-Version anzeigen, die unterstützt wird, indem Sie den Befehl nvidia-smi ausführen. CPU -Version: Wenn Sie keine GPU haben oder keine GPU verwenden möchten, können Sie eine CPU -Version von Pytorch auswählen. 2. Python Version Pytorch

Die Installation von CentOS-Installationen erfordert die folgenden Schritte: Installieren von Abhängigkeiten wie Entwicklungstools, PCRE-Devel und OpenSSL-Devel. Laden Sie das Nginx -Quellcode -Paket herunter, entpacken Sie es, kompilieren Sie es und installieren Sie es und geben Sie den Installationspfad als/usr/local/nginx an. Erstellen Sie NGINX -Benutzer und Benutzergruppen und setzen Sie Berechtigungen. Ändern Sie die Konfigurationsdatei nginx.conf und konfigurieren Sie den Hörport und den Domänennamen/die IP -Adresse. Starten Sie den Nginx -Dienst. Häufige Fehler müssen beachtet werden, z. B. Abhängigkeitsprobleme, Portkonflikte und Konfigurationsdateifehler. Die Leistungsoptimierung muss entsprechend der spezifischen Situation angepasst werden, z. B. das Einschalten des Cache und die Anpassung der Anzahl der Arbeitsprozesse.

Pytorch Distributed Training on CentOS -System erfordert die folgenden Schritte: Pytorch -Installation: Die Prämisse ist, dass Python und PIP im CentOS -System installiert sind. Nehmen Sie abhängig von Ihrer CUDA -Version den entsprechenden Installationsbefehl von der offiziellen Pytorch -Website ab. Für CPU-Schulungen können Sie den folgenden Befehl verwenden: PipinstallTorChTorChVisionTorChaudio Wenn Sie GPU-Unterstützung benötigen, stellen Sie sicher, dass die entsprechende Version von CUDA und CUDNN installiert ist und die entsprechende Pytorch-Version für die Installation verwenden. Konfiguration der verteilten Umgebung: Verteiltes Training erfordert in der Regel mehrere Maschinen oder mehrere Maschinen-Mehrfach-GPUs. Ort
