Sprechen Sie kurz über Schließungen in Python
Abschlüsse in Python
Jemand hat vor ein paar Tagen eine Nachricht hinterlassen und ist sich über die Verwendung von 闭包
und re.sub
nicht ganz im Klaren. Ich suchte auf Script Home und stellte fest, dass ich noch nie etwas über Schließungen geschrieben hatte, also beschloss ich, den Inhalt von Python zusammenzufassen und zu verbessern.
1. Das Konzept der Schließung
Zuerst müssen wir mit dem Grundkonzept beginnen. Was ist Schließung? Werfen wir einen Blick auf die Erklärung im Wiki:
....
Zwei Schlüsselpunkte wurden oben erwähnt: freie Variablen und Funktionen. Diese beiden Schlüssel werden später besprochen. Ich muss noch näher auf die Bedeutung von „Abschluss“ eingehen. Wie aus dem Text hervorgeht, handelt es sich bei diesem Paket um eine Funktion Innerhalb des Pakets gibt es Freiheitsvariablen, freie Variablen können mit dem Paket herumwandern. Natürlich muss es eine Voraussetzung dafür geben, dass dieses Paket erstellt wird.
Zum Beispiel:
def func(name): def inner_func(age): print 'name:', name, 'age:', age return inner_func bb = func('the5fire') bb(26) # >>> name: the5fire age: 26
Wenn func hier aufgerufen wird, wird ein Abschluss – inner_func – generiert, und der Abschluss enthält den Namen der freien Variablen. Dies bedeutet also auch, dass der Variablenname vorhanden bleibt, wenn der Lebenszyklus der Funktion func endet, da auf ihn verwiesen wird durch den Verschluss, so dass es nicht recycelt werden kann.
Eine weitere Sache: Schließung ist in Python kein einzigartiges Konzept. Alle Sprachen, die Funktionen als Bürger erster Klasse behandeln, haben das Konzept der Schließung. Allerdings können Abschlüsse auch in Sprachen wie Java verwendet werden, in denen Klassen erstklassige Bürger sind, sie müssen jedoch mithilfe von Klassen oder Schnittstellen implementiert werden.
Weitere konzeptionelle Informationen finden Sie unter dem Referenzlink am Ende.
2. Warum Verschlüsse verwenden
Aufgrund der obigen Einführung frage ich mich, ob die Leser das Gefühl haben, dass dieses Ding den Klassen etwas ähnelt. Die Ähnlichkeit besteht darin, dass beide eine Datenkapselung bereitstellen. Der Unterschied besteht darin, dass der Abschluss selbst eine Methode ist. Wie bei Klassen abstrahieren wir häufig gemeinsame Dinge in Klassen, wenn wir programmieren (und natürlich auch die reale Geschäftswelt modellieren), um gemeinsame Funktionen wiederzuverwenden. Das Gleiche gilt für Abschlüsse, wenn wir eine funktionsgranulare Abstraktion benötigen.
An diesem Punkt kann ein Abschluss als schreibgeschütztes Objekt verstanden werden. Sie können ihm eine Eigenschaft übergeben, es kann Ihnen jedoch nur eine Ausführungsschnittstelle bereitstellen. Daher benötigen wir in Programmen häufig ein solches Funktionsobjekt – den Abschluss –, um uns bei der Vervollständigung einer gemeinsamen Funktion zu helfen, wie z. B. dem Dekorator, der später erwähnt wird.
3. Verschlüsse verwenden
Das erste Szenario, ein sehr wichtiges und häufiges Verwendungsszenario in Python, ist der Dekorator. Python bietet einen sehr benutzerfreundlichen „syntaktischen Zucker“ für den Dekorator, der es uns ermöglicht, Dekoration sehr bequem zu verwenden Vieles zum Dekorationsprinzip. Kurz gesagt, wenn Sie @decorator_func zu einer Funktion func hinzufügen, entspricht dies decorator_func(func):
def decorator_func(func): def wrapper(*args, **kwargs): return func(*args, **kwargs) return wrapper @decorator_func def func(name): print 'my name is', name # 等价于 decorator_func(func)
In diesem Beispiel des Dekorators enthält der Abschluss (Wrapper) den externen Funktionsparameter und kann von außen übergebene Parameter akzeptieren. Die empfangenen Parameter werden intakt an die Funktion übergeben und an die Ausführung zurückgegeben.
Dies ist ein einfaches Beispiel. Wenn es etwas komplizierter ist, können Sie mehrere Abschlüsse verwenden, z. B. den häufig verwendeten LRUCache-Dekorator. Der Dekorator kann Parameter wie @lru_cache(expire=500) akzeptieren. Die Implementierung ist die Verschachtelung zweier Abschlüsse:
def lru_cache(expire=5): # 默认5s超时 def func_wrapper(func): def inner(*args, **kwargs): # cache 处理 bala bala bala return func(*args, **kwargs) return inner return func_wrapper @lru_cache(expire=10*60) def get(request, pk) # 省略具体代码 return response()
Studenten, die nicht viel über Schließungen wissen, müssen in der Lage sein, den obigen Code zu verstehen. Dies ist eine Interviewfrage, die wir in früheren Interviews oft gestellt haben.
Das zweite Szenario basiert auf einer Funktion des Abschlusses – der „faulen Bewertung“. Diese Anwendung kommt häufiger beim Zugriff auf die Datenbank vor, zum Beispiel:
# 伪代码示意 class QuerySet(object): def __init__(self, sql): self.sql = sql self.db = Mysql.connect().corsor() # 伪代码 def __call__(self): return db.execute(self.sql) def query(sql): return QuerySet(sql) result = query("select name from user_app") if time > now: print result # 这时才执行数据库访问
Das obige unangemessene Beispiel zeigt die Funktion der verzögerten Auswertung durch Schließung, aber das von der obigen Abfrage zurückgegebene Ergebnis ist keine Funktion, sondern eine Klasse mit funktionalen Funktionen. Wenn Sie interessiert sind, können Sie sich die Implementierung des Abfragesatzes von Django ansehen. Das Prinzip ist ähnlich.
Das dritte Szenario ist die Situation, in der die Parameter einer bestimmten Funktion im Voraus zugewiesen werden müssen. Natürlich gibt es in Python bereits eine gute Lösung für den Zugriff auf functools.parial, aber dies kann auch mithilfe von Abschlüssen erreicht werden.
def partial(**outer_kwargs): def wrapper(func): def inner(*args, **kwargs): for k, v in outer_kwargs.items(): kwargs[k] = v return func(*args, **kwargs) return inner return wrapper @partial(age=15) def say(name=None, age=None): print name, age say(name="the5fire") # 当然用functools比这个简单多了 # 只需要: functools.partial(say, age=15)(name='the5fire')
Es scheint, dass dies ein weiteres weit hergeholtes Beispiel ist, aber es kann als Übung der Anwendung von Verschlüssen angesehen werden.
Abschließend lässt sich sagen, dass Abschlüsse leicht zu verstehen sind und in Python häufig verwendet werden. Wenn Sie Fragen haben, hinterlassen Sie bitte eine Nachricht.
4. Referenzmaterialien
Wikipedia-Schließung
http://stackoverflow.com/questions/4020419/closures-in-python
http://www.shutupandship.com/2012/01/python-closures-explained.html
http://stackoverflow.com/questions/141642/what-limitations-have-closures-in-python-compared-to-lingual-x-closures
http://mrevelle.blogspot.com/2006/10/closure-on-closures.html

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



PHP und Python haben ihre eigenen Vor- und Nachteile, und die Wahl hängt von den Projektbedürfnissen und persönlichen Vorlieben ab. 1.PHP eignet sich für eine schnelle Entwicklung und Wartung großer Webanwendungen. 2. Python dominiert das Gebiet der Datenwissenschaft und des maschinellen Lernens.

Effizientes Training von Pytorch -Modellen auf CentOS -Systemen erfordert Schritte, und dieser Artikel bietet detaillierte Anleitungen. 1.. Es wird empfohlen, YUM oder DNF zu verwenden, um Python 3 und Upgrade PIP zu installieren: Sudoyumupdatepython3 (oder sudodnfupdatepython3), PIP3Install-upgradepip. CUDA und CUDNN (GPU -Beschleunigung): Wenn Sie Nvidiagpu verwenden, müssen Sie Cudatool installieren

Aktivieren Sie die Pytorch -GPU -Beschleunigung am CentOS -System erfordert die Installation von CUDA-, CUDNN- und GPU -Versionen von Pytorch. Die folgenden Schritte führen Sie durch den Prozess: Cuda und Cudnn Installation Bestimmen Sie die CUDA-Version Kompatibilität: Verwenden Sie den Befehl nvidia-smi, um die von Ihrer NVIDIA-Grafikkarte unterstützte CUDA-Version anzuzeigen. Beispielsweise kann Ihre MX450 -Grafikkarte CUDA11.1 oder höher unterstützen. Download und installieren Sie Cudatoolkit: Besuchen Sie die offizielle Website von Nvidiacudatoolkit und laden Sie die entsprechende Version gemäß der höchsten CUDA -Version herunter und installieren Sie sie, die von Ihrer Grafikkarte unterstützt wird. Installieren Sie die Cudnn -Bibliothek:

Python und JavaScript haben ihre eigenen Vor- und Nachteile in Bezug auf Gemeinschaft, Bibliotheken und Ressourcen. 1) Die Python-Community ist freundlich und für Anfänger geeignet, aber die Front-End-Entwicklungsressourcen sind nicht so reich wie JavaScript. 2) Python ist leistungsstark in Bibliotheken für Datenwissenschaft und maschinelles Lernen, während JavaScript in Bibliotheken und Front-End-Entwicklungsbibliotheken und Frameworks besser ist. 3) Beide haben reichhaltige Lernressourcen, aber Python eignet sich zum Beginn der offiziellen Dokumente, während JavaScript mit Mdnwebdocs besser ist. Die Wahl sollte auf Projektbedürfnissen und persönlichen Interessen beruhen.

Docker verwendet Linux -Kernel -Funktionen, um eine effiziente und isolierte Anwendungsumgebung zu bieten. Sein Arbeitsprinzip lautet wie folgt: 1. Der Spiegel wird als schreibgeschützte Vorlage verwendet, die alles enthält, was Sie für die Ausführung der Anwendung benötigen. 2. Das Union File System (UnionFS) stapelt mehrere Dateisysteme, speichert nur die Unterschiede, speichert Platz und beschleunigt. 3. Der Daemon verwaltet die Spiegel und Container, und der Kunde verwendet sie für die Interaktion. 4. Namespaces und CGroups implementieren Container -Isolation und Ressourcenbeschränkungen; 5. Mehrere Netzwerkmodi unterstützen die Containerverbindung. Nur wenn Sie diese Kernkonzepte verstehen, können Sie Docker besser nutzen.

Bei der Auswahl einer Pytorch -Version unter CentOS müssen die folgenden Schlüsselfaktoren berücksichtigt werden: 1. Cuda -Version Kompatibilität GPU -Unterstützung: Wenn Sie NVIDIA -GPU haben und die GPU -Beschleunigung verwenden möchten, müssen Sie Pytorch auswählen, der die entsprechende CUDA -Version unterstützt. Sie können die CUDA-Version anzeigen, die unterstützt wird, indem Sie den Befehl nvidia-smi ausführen. CPU -Version: Wenn Sie keine GPU haben oder keine GPU verwenden möchten, können Sie eine CPU -Version von Pytorch auswählen. 2. Python Version Pytorch

Pytorch Distributed Training on CentOS -System erfordert die folgenden Schritte: Pytorch -Installation: Die Prämisse ist, dass Python und PIP im CentOS -System installiert sind. Nehmen Sie abhängig von Ihrer CUDA -Version den entsprechenden Installationsbefehl von der offiziellen Pytorch -Website ab. Für CPU-Schulungen können Sie den folgenden Befehl verwenden: PipinstallTorChTorChVisionTorChaudio Wenn Sie GPU-Unterstützung benötigen, stellen Sie sicher, dass die entsprechende Version von CUDA und CUDNN installiert ist und die entsprechende Pytorch-Version für die Installation verwenden. Konfiguration der verteilten Umgebung: Verteiltes Training erfordert in der Regel mehrere Maschinen oder mehrere Maschinen-Mehrfach-GPUs. Ort

Die Installation von CentOS-Installationen erfordert die folgenden Schritte: Installieren von Abhängigkeiten wie Entwicklungstools, PCRE-Devel und OpenSSL-Devel. Laden Sie das Nginx -Quellcode -Paket herunter, entpacken Sie es, kompilieren Sie es und installieren Sie es und geben Sie den Installationspfad als/usr/local/nginx an. Erstellen Sie NGINX -Benutzer und Benutzergruppen und setzen Sie Berechtigungen. Ändern Sie die Konfigurationsdatei nginx.conf und konfigurieren Sie den Hörport und den Domänennamen/die IP -Adresse. Starten Sie den Nginx -Dienst. Häufige Fehler müssen beachtet werden, z. B. Abhängigkeitsprobleme, Portkonflikte und Konfigurationsdateifehler. Die Leistungsoptimierung muss entsprechend der spezifischen Situation angepasst werden, z. B. das Einschalten des Cache und die Anpassung der Anzahl der Arbeitsprozesse.
