Weiteres Verständnis des Python-Thread-Pools
Was ist das Konzept des Thread-Pools?
Bei der objektorientierten Programmierung ist das Erstellen und Zerstören von Objekten sehr zeitaufwändig, da zum Erstellen eines Objekts Speicherressourcen oder andere Ressourcen benötigt werden. Dies gilt insbesondere für Java, wo die virtuelle Maschine versucht, jedes Objekt zu verfolgen, damit es nach der Zerstörung des Objekts durch den Müll gesammelt werden kann. Daher besteht eine Möglichkeit zur Verbesserung der Effizienz von Serviceprogrammen darin, die Anzahl der erstellten und zerstörten Objekte so weit wie möglich zu reduzieren, insbesondere die Erstellung und Zerstörung einiger ressourcenintensiver Objekte. Die Verwendung vorhandener Objekte für die Bereitstellung ist ein zentrales Problem, das gelöst werden muss. Tatsächlich ist dies der Grund für die Entstehung einiger „Pooled Resource“-Technologien.
Ich verstehe, dass der Thread-Pool eine Einheit ist, die viele Threads speichert, und es gibt auch eine entsprechende Aufgabenwarteschlange. Der gesamte Ausführungsprozess besteht tatsächlich darin, die begrenzten Threads im Thread-Pool zu verwenden, um die Aufgaben in der Aufgabenwarteschlange abzuschließen. Dies hat den Vorteil, dass Sie nicht für jede Aufgabe einen Thread erstellen müssen, denn wenn Sie den 100. Thread erstellen, um die 100. Aufgabe auszuführen, haben möglicherweise die vorherigen 50 Threads ihre Arbeit abgeschlossen. Daher werden Threads wiederverwendet, um Aufgaben auszuführen und den Overhead der Systemressourcen zu reduzieren.
Eine unangemessene Metapher ist, dass 100 Computer-Großrechner vom ersten Stock in den zweiten Stock gebracht werden müssen. Sie müssen nicht 100 Leute anrufen, um beim Umzug zu helfen oder zwanzig Leute, jeder Person sind zehn oder fünf zugeteilt, und wer sich schneller bewegt, wird sich mehr bewegen, bis die Vollendung unbekannt ist. (Diese Metapher scheint...)
Jedenfalls verstehe ich im Allgemeinen das Konzept des Thread-Pools. Wie implementiert man es also in Python?
Der Code lautet wie folgt
# !/usr/bin/env python # -*- coding:utf-8 -*- # ref_blog:http://www.open-open.com/home/space-5679-do-blog-id-3247.html import Queue import threading import time class WorkManager(object): def __init__(self, work_num=1000,thread_num=2): self.work_queue = Queue.Queue() self.threads = [] self.__init_work_queue(work_num) self.__init_thread_pool(thread_num) """ 初始化线程 """ def __init_thread_pool(self,thread_num): for i in range(thread_num): self.threads.append(Work(self.work_queue)) """ 初始化工作队列 """ def __init_work_queue(self, jobs_num): for i in range(jobs_num): self.add_job(do_job, i) """ 添加一项工作入队 """ def add_job(self, func, *args): self.work_queue.put((func, list(args)))#任务入队,Queue内部实现了同步机制 """ 检查剩余队列任务 """ def check_queue(self): return self.work_queue.qsize() """ 等待所有线程运行完毕 """ def wait_allcomplete(self): for item in self.threads: if item.isAlive():item.join() class Work(threading.Thread): def __init__(self, work_queue): threading.Thread.__init__(self) self.work_queue = work_queue self.start() def run(self): #死循环,从而让创建的线程在一定条件下关闭退出 while True: try: do, args = self.work_queue.get(block=False)#任务异步出队,Queue内部实现了同步机制 do(args) self.work_queue.task_done()#通知系统任务完成 except Exception,e: print str(e) break #具体要做的任务 def do_job(args): print args time.sleep(0.1)#模拟处理时间 print threading.current_thread(), list(args) if __name__ == '__main__': start = time.time() work_manager = WorkManager(10, 2)#或者work_manager = WorkManager(10000, 20) work_manager.wait_allcomplete() end = time.time() print "cost all time: %s" % (end-start)
Dieser Code ist klar und leicht zu verstehen.
Im gesamten Code gibt es nur zwei Klassen: WorkManager und Work. Erstere ist tatsächlich ein Manager, der den Thread-Pool und die Aufgabenwarteschlange verwaltet, während letztere ein spezifischer Thread ist.
Seine gesamte Betriebslogik besteht darin, WorkManager die angegebene Anzahl von Aufgaben und Threads zuzuweisen. Anschließend erhält jeder Thread Aufgaben aus der Aufgabenwarteschlange und führt sie aus, bis keine Aufgaben mehr in der Warteschlange vorhanden sind. Hier wird auch der interne Synchronisationsmechanismus von Queue verwendet (der Synchronisationsmechanismus wurde noch nicht untersucht).
Um die Rolle eines solchen Thread-Pools zusammenzufassen: Für meinen ursprünglichen Zweck wird dieses Ding niemals verwendet, da ich das Starten und Stoppen von Threads auf der Webseite steuern muss, und dieser Thread-Pool scheint dies zu tun werden nur zum gleichzeitigen Erledigen von Aufgaben verwendet. Ich denke jedoch, dass es zwar keine Auswirkung auf die Steuerung von Threads hat, aber dennoch eine recht gute Rolle bei der gleichzeitigen Ausführung von Aufgaben spielt und beim Crawlen von Webseiten verwendet werden kann.

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



PHP und Python haben ihre eigenen Vor- und Nachteile, und die Wahl hängt von den Projektbedürfnissen und persönlichen Vorlieben ab. 1.PHP eignet sich für eine schnelle Entwicklung und Wartung großer Webanwendungen. 2. Python dominiert das Gebiet der Datenwissenschaft und des maschinellen Lernens.

Effizientes Training von Pytorch -Modellen auf CentOS -Systemen erfordert Schritte, und dieser Artikel bietet detaillierte Anleitungen. 1.. Es wird empfohlen, YUM oder DNF zu verwenden, um Python 3 und Upgrade PIP zu installieren: Sudoyumupdatepython3 (oder sudodnfupdatepython3), PIP3Install-upgradepip. CUDA und CUDNN (GPU -Beschleunigung): Wenn Sie Nvidiagpu verwenden, müssen Sie Cudatool installieren

Aktivieren Sie die Pytorch -GPU -Beschleunigung am CentOS -System erfordert die Installation von CUDA-, CUDNN- und GPU -Versionen von Pytorch. Die folgenden Schritte führen Sie durch den Prozess: Cuda und Cudnn Installation Bestimmen Sie die CUDA-Version Kompatibilität: Verwenden Sie den Befehl nvidia-smi, um die von Ihrer NVIDIA-Grafikkarte unterstützte CUDA-Version anzuzeigen. Beispielsweise kann Ihre MX450 -Grafikkarte CUDA11.1 oder höher unterstützen. Download und installieren Sie Cudatoolkit: Besuchen Sie die offizielle Website von Nvidiacudatoolkit und laden Sie die entsprechende Version gemäß der höchsten CUDA -Version herunter und installieren Sie sie, die von Ihrer Grafikkarte unterstützt wird. Installieren Sie die Cudnn -Bibliothek:

Docker verwendet Linux -Kernel -Funktionen, um eine effiziente und isolierte Anwendungsumgebung zu bieten. Sein Arbeitsprinzip lautet wie folgt: 1. Der Spiegel wird als schreibgeschützte Vorlage verwendet, die alles enthält, was Sie für die Ausführung der Anwendung benötigen. 2. Das Union File System (UnionFS) stapelt mehrere Dateisysteme, speichert nur die Unterschiede, speichert Platz und beschleunigt. 3. Der Daemon verwaltet die Spiegel und Container, und der Kunde verwendet sie für die Interaktion. 4. Namespaces und CGroups implementieren Container -Isolation und Ressourcenbeschränkungen; 5. Mehrere Netzwerkmodi unterstützen die Containerverbindung. Nur wenn Sie diese Kernkonzepte verstehen, können Sie Docker besser nutzen.

Python und JavaScript haben ihre eigenen Vor- und Nachteile in Bezug auf Gemeinschaft, Bibliotheken und Ressourcen. 1) Die Python-Community ist freundlich und für Anfänger geeignet, aber die Front-End-Entwicklungsressourcen sind nicht so reich wie JavaScript. 2) Python ist leistungsstark in Bibliotheken für Datenwissenschaft und maschinelles Lernen, während JavaScript in Bibliotheken und Front-End-Entwicklungsbibliotheken und Frameworks besser ist. 3) Beide haben reichhaltige Lernressourcen, aber Python eignet sich zum Beginn der offiziellen Dokumente, während JavaScript mit Mdnwebdocs besser ist. Die Wahl sollte auf Projektbedürfnissen und persönlichen Interessen beruhen.

Bei der Auswahl einer Pytorch -Version unter CentOS müssen die folgenden Schlüsselfaktoren berücksichtigt werden: 1. Cuda -Version Kompatibilität GPU -Unterstützung: Wenn Sie NVIDIA -GPU haben und die GPU -Beschleunigung verwenden möchten, müssen Sie Pytorch auswählen, der die entsprechende CUDA -Version unterstützt. Sie können die CUDA-Version anzeigen, die unterstützt wird, indem Sie den Befehl nvidia-smi ausführen. CPU -Version: Wenn Sie keine GPU haben oder keine GPU verwenden möchten, können Sie eine CPU -Version von Pytorch auswählen. 2. Python Version Pytorch

Pytorch Distributed Training on CentOS -System erfordert die folgenden Schritte: Pytorch -Installation: Die Prämisse ist, dass Python und PIP im CentOS -System installiert sind. Nehmen Sie abhängig von Ihrer CUDA -Version den entsprechenden Installationsbefehl von der offiziellen Pytorch -Website ab. Für CPU-Schulungen können Sie den folgenden Befehl verwenden: PipinstallTorChTorChVisionTorChaudio Wenn Sie GPU-Unterstützung benötigen, stellen Sie sicher, dass die entsprechende Version von CUDA und CUDNN installiert ist und die entsprechende Pytorch-Version für die Installation verwenden. Konfiguration der verteilten Umgebung: Verteiltes Training erfordert in der Regel mehrere Maschinen oder mehrere Maschinen-Mehrfach-GPUs. Ort

Die Installation von CentOS-Installationen erfordert die folgenden Schritte: Installieren von Abhängigkeiten wie Entwicklungstools, PCRE-Devel und OpenSSL-Devel. Laden Sie das Nginx -Quellcode -Paket herunter, entpacken Sie es, kompilieren Sie es und installieren Sie es und geben Sie den Installationspfad als/usr/local/nginx an. Erstellen Sie NGINX -Benutzer und Benutzergruppen und setzen Sie Berechtigungen. Ändern Sie die Konfigurationsdatei nginx.conf und konfigurieren Sie den Hörport und den Domänennamen/die IP -Adresse. Starten Sie den Nginx -Dienst. Häufige Fehler müssen beachtet werden, z. B. Abhängigkeitsprobleme, Portkonflikte und Konfigurationsdateifehler. Die Leistungsoptimierung muss entsprechend der spezifischen Situation angepasst werden, z. B. das Einschalten des Cache und die Anpassung der Anzahl der Arbeitsprozesse.
