Heim > Web-Frontend > js-Tutorial > Hauptteil

Eine kurze Analyse der Prinzipien der hohen Parallelität in Node

青灯夜游
Freigeben: 2022-10-18 20:53:17
nach vorne
1304 Leute haben es durchsucht

Eine kurze Analyse der Prinzipien der hohen Parallelität in Node

Sehen wir uns zunächst ein paar gängige Aussagen an

  • nodejs ist ein Single-Threaded + nicht blockierendes I/O-Modell
  • nodejs eignet sich für hohe Parallelität
  • nodejs eignet sich für I/O-intensive Anwendungen, nicht CPU-intensive Anwendungen [Verwandte Tutorial-Empfehlung: nodejs-Video-Tutorial]

Bevor wir im Detail analysieren, ob diese Aussagen wahr sind und warum, lassen Sie uns einige vorbereitende Arbeiten durchführen

Lassen Sie uns von vorne beginnen

Eine gemeinsame Sache Webanwendung wird Folgendes tun:

  • Operationen (Ausführen von Geschäftslogik, mathematischen Operationen, Funktionsaufrufen usw. Die Hauptarbeit wird auf der CPU erledigt)
  • E/A (z. B. Lesen und Schreiben von Dateien, Lesen und Schreiben von Datenbanken). , Lesen und Schreiben von Netzwerkanforderungen usw. Die Hauptarbeit wird auf verschiedenen E/A-Geräten wie Festplatten, Netzwerkkarten usw. ausgeführt.)

Eine typische traditionelle Webanwendungsimplementierung

  • Mehrere Prozesse , eine Anfrage forkt einen (untergeordneten) Prozess + blockierende E/A (d. h. blockierende E/A oder BIO)
  • Multithreading, eine Anfrage erstellt einen Thread + blockierende E/A

Pseudo-Beispiel für eine Webanwendung mit mehreren Prozessen Code

listenFd = new Socket(); // 创建监听socket
Bind(listenFd, 80); // 绑定端口
Listen(listenFd);   // 开始监听

for ( ; ; ) {
    // 接收客户端请求,通过新的socket建立连接
    connFd = Accept(listenFd);
    // fork子进程
    if ((pid = Fork()) === 0) {
        // 子进程中
        // BIO读取网络请求数据,阻塞,发生进程调度
        request = connFd.read();
        // BIO读取本地文件,阻塞,发生进程调度
        content = ReadFile('test.txt');
        // 将文件内容写入响应
        Response.write(content);
    }
}
Nach dem Login kopieren

Eine Multithread-Anwendung ähnelt tatsächlich einer Multiprozess-Anwendung, mit der Ausnahme, dass eine Anforderung einem Prozess zugewiesen wird. Wird zu einer Anforderung zum Zuweisen eines Threads. Threads sind leichter als Prozesse und beanspruchen weniger Systemressourcen (ps: die sogenannte Kontextumschaltung, eine kleine Erklärung: Eine Single-Core-CPU kann nur Aufgaben in einem Prozess oder Thread gleichzeitig ausführen, aber um des Willens willen Die Makroparallelität im Internet erfordert das Hin- und Herwechseln zwischen mehreren Prozessen oder Threads gemäß Zeitscheiben, um sicherzustellen, dass jeder Prozess und Thread ausgeführt werden kann. Gleichzeitig ist der Overhead geringer und einfacher Teilen Sie den Speicher zwischen Threads, was die Entwicklung erleichtert

Nach oben In dem Artikel wurden zwei Kernpunkte von Webanwendungen erwähnt, einer ist das Thread-Modell und der andere ist das E/A-Modell. Was genau blockiert also E/A? Welche weiteren I/O-Modelle gibt es? Machen Sie sich keine Sorgen, werfen wir zunächst einen Blick darauf, was eine Obstruktion ist

Was ist eine Obstruktion? Was blockiert E/A?

Kurz gesagt bedeutet Blockieren, dass der aktuelle (Thread-)Prozess angehalten wird und in den Wartezustand wechselt, bevor der Funktionsaufruf zurückkehrt. In diesem Zustand wird der aktuelle (Thread-)Prozess angehalten und veranlasst die CPU, (Thread) zu verarbeiten ) Thread-Planung. Die Funktion kehrt erst dann zum Aufrufer zurück, wenn alle internen Arbeiten abgeschlossen sind

Das Blockieren von E/A bedeutet also, dass der aktuelle (Thread-)Thread in den Wartezustand wechselt, nachdem die Anwendung den E/A-Vorgang über die API aufgerufen hat, und der Code Die Ausführung kann nicht fortgesetzt werden. Zu diesem Zeitpunkt kann die CPU die Thread-Planung (Thread) durchführen, d. h. zu anderen ausführbaren Threads (Threads) wechseln, um die Ausführung fortzusetzen wird verarbeitet. Kann weiterhin ausgeführt werden

Mehrere Threads + Was stimmt mit dem blockierenden E/A-Modell nicht?

Nachdem wir verstanden haben, was Blockieren und blockierende E/A sind, analysieren wir die Nachteile des Multiprozess- (Thread) + blockierenden E/A-Modells herkömmlicher Webanwendungen.

Da einer Anforderung ein eingehender (Thread-)Thread zugewiesen werden muss, muss ein solches System bei großer Parallelität eine große Anzahl eingehender (Thread-)Threads verwalten und erfordert eine große Anzahl von Kontextwechseln, was erforderlich ist eine große Menge an CPU-, Speicher- und anderen Systemressourcen. Wenn also viele gleichzeitige Anforderungen eingehen, steigt der CPU- und Speicher-Overhead stark an, was schnell zum Ausfall des gesamten Systems führen kann und dazu führen kann, dass der Dienst nicht verfügbar ist

nodejs Anwendungsimplementierung

Als nächstes werfen wir einen Blick darauf, wie NodeJS-Anwendungen implementiert werden.

  • Ereignisgesteuert, Single-Threaded (Hauptthread)
  • Nicht blockierende E/A Wie Sie auf der offiziellen Website sehen können, sind die beiden Hauptmerkmale von NodeJS das ereignisgesteuerte Single-Threaded- und das „nicht blockierende“ E/A-Modell. Single-Thread + ereignisgesteuert ist einfacher zu verstehen. Front-End-Studenten sollten mit den Single-Thread- und Event-Loop-Mechanismen von js vertraut sein. Lassen Sie uns daher hauptsächlich untersuchen, worum es bei dieser „nicht blockierenden E/A“ geht. Schauen wir uns zunächst einen allgemeinen Code für NodeJS-Serveranwendungen an.
const net = require('net');
const server = net.createServer();
const fs = require('fs');

server.listen(80);  // 监听端口
// 监听事件建立连接
server.on('connection', (socket) => {
    // 监听事件读取请求数据
    socket.on('data', (data) => {
    // 异步读取本地文件
    fs.readFile('test.txt', (err, data) => {
            // 将读取的内容写入响应
            socket.write(data);
            socket.end();
        })
    });
});
Nach dem Login kopieren

Sie können sehen, dass wir in NodeJS E/A-Vorgänge auf asynchrone Weise ausführen können sofort, und dann können Sie weiterhin andere Codelogik ausführen. Warum ist E/A in NodeJS „nicht blockierend“? Bevor wir diese Frage beantworten, schauen wir uns bitte die erweiterte Videoerklärung von nodejs an: Enter learning

Grundlegende Schritte des Lesevorgangs

Schauen wir uns zunächst die Schritte an, die für den nächsten Lesevorgang erforderlich sind

  • 用户程序调用I/O操作API,内部发出系统调用,进程从用户态转到内核态
  • 系统发出I/O请求,等待数据准备好(如网络I/O,等待数据从网络中到达socket;等待系统从磁盘上读取数据等)
  • 数据准备好后,复制到内核缓冲区
  • 从内核空间复制到用户空间,用户程序拿到数据

接下来我们看一下操作系统中有哪些I/O模型

几种I/O模型

阻塞式I/O

Eine kurze Analyse der Prinzipien der hohen Parallelität in Node


非阻塞式I/O

Eine kurze Analyse der Prinzipien der hohen Parallelität in Node


I/O多路复用(进程可同时监听多个I/O设备就绪)

Eine kurze Analyse der Prinzipien der hohen Parallelität in Node


信号驱动I/O

Eine kurze Analyse der Prinzipien der hohen Parallelität in Node


异步I/O

Eine kurze Analyse der Prinzipien der hohen Parallelität in Node


那么nodejs里到底使用了哪种I/O模型呢?是上图中的“非阻塞I/O”吗?别着急,先接着往下看,我们来了解下nodejs的体系结构

nodejs体系结构,线程、I/O模型分析

Eine kurze Analyse der Prinzipien der hohen Parallelität in Node

最上面一层是就是我们编写nodejs应用代码时可以使用的API库,下面一层则是用来打通nodejs和它所依赖的底层库的一个中间层,比如实现让js代码可以调用底层的c代码库。来到最下面一层,可以看到前端同学熟悉的V8,还有其他一些底层依赖。注意,这里有一个叫libuv的库,它是干什么的呢?从图中也能看出,libuv帮助nodejs实现了底层的线程池、异步I/O等功能。libuv实际上是一个跨平台的c语言库,它在windows、linux等不同平台下会调用不同的实现。我这里主要分析linux下libuv的实现,因为我们的应用大部分时候还是运行在linux环境下的,且平台间的差异性并不会影响我们对nodejs原理的分析和理解。好了,对于nodejs在linux下的I/O模型来说,libuv实际上提供了两种不同场景下的不同实现,处理网络I/O主要由epoll函数实现(其实就是I/O多路复用,在前面的图中使用的是select函数来实现I/O多路复用,而epoll可以理解为select函数的升级版,这个暂时不做具体分析),而处理文件I/O则由多线程(线程池) + 阻塞I/O模拟异步I/O实现


下面是一段我写的nodejs底层实现的伪代码帮助大家理解

listenFd = new Socket();    // 创建监听socket
Bind(listenFd, 80); // 绑定端口
Listen(listenFd);   // 开始监听

for ( ; ; ) {
    // 阻塞在epoll函数上,等待网络数据准备好
    // epoll可同时监听listenFd以及多个客户端连接上是否有数据准备就绪
    // clients表示当前所有客户端连接,curFd表示epoll函数最终拿到的一个就绪的连接
    curFd = Epoll(listenFd, clients);

    if (curFd === listenFd) {
        // 监听套接字收到新的客户端连接,创建套接字
        int connFd = Accept(listenFd);
        // 将新建的连接添加到epoll监听的list
        clients.push(connFd);
    }

    else {
        // 某个客户端连接数据就绪,读取请求数据
        request = curFd.read();
        // 这里拿到请求数据后可以发出data事件进入nodejs的事件循环
        ...
    }
}

// 读取本地文件时,libuv用多线程(线程池) + BIO模拟异步I/O
ThreadPool.run((callback) => {
    // 在线程里用BIO读取文件
    String content = Read('text.txt');  
    // 发出事件调用nodejs提供的callback
});
Nach dem Login kopieren

通过I/O多路复用 + 多线程模拟的异步I/O配合事件循环机制,nodejs就实现了单线程处理并发请求并且不会阻塞。所以回到之前所说的“非阻塞I/O”模型,实际上nodejs并没有直接使用通常定义上的非阻塞I/O模型,而是I/O多路复用模型 + 多线程BIO。我认为“非阻塞I/O”其实更多是对nodejs编程人员来说的一种描述,从编码方式和代码执行顺序上来讲,nodejs的I/O调用的确是“非阻塞”的

总结

至此我们应该可以了解到,nodejs的I/O模型其实主要是由I/O多路复用和多线程下的阻塞I/O两种方式一起组成的,而应对高并发请求时发挥作用的主要就是I/O多路复用。好了,那最后我们来总结一下nodejs线程模型和I/O模型对比传统web应用多进(线)程 + 阻塞I/O模型的优势和劣势

  • Nodejs verwendet ein Single-Thread-Modell, um die Kosten für die Systemwartung und das Umschalten mehrerer Threads zu sparen. Gleichzeitig kann das Multiplex-E/A-Modell verhindern, dass der Single-Thread von NodeJS eine bestimmte Verbindung blockiert. In Szenarien mit hoher Parallelität müssen NodeJS-Anwendungen nur Socket-Deskriptoren erstellen und verwalten, die mehreren Client-Verbindungen entsprechen, ohne entsprechende Prozesse oder Threads zu erstellen. Der Systemaufwand wird erheblich reduziert, sodass mehr Client-Verbindungen gleichzeitig verarbeitet werden können Verbessern Sie die Effizienz der zugrunde liegenden realen E/A-Vorgänge. Wenn die zugrunde liegende E/A zum Leistungsengpass des Systems wird, kann NodeJS ihn immer noch nicht lösen. Das heißt, NodeJS kann viele gleichzeitige Anforderungen empfangen, aber wenn er eine große Anzahl langsamer E/A-Vorgänge (z. B. Lesen und Lesen) verarbeiten muss Beim Schreiben von Datenträgern kann es immer noch zu einer Überlastung der Systemressourcen kommen. Daher kann eine hohe Parallelität nicht einfach durch ein Single-Thread- und nicht blockierendes I/O-Modell gelöst werden.
  • CPU-intensive Anwendungen können dazu führen, dass das Single-Thread-Modell von NodeJS zu einem Leistungsengpass wird.
  • NodeJS ist für die Verarbeitung mit hoher Parallelität geeignet einer kleinen Menge Geschäftslogik oder schneller E/A (z. B. Lese- und Schreibspeicher)
  • Weitere Informationen zu Knoten finden Sie unter:
nodejs-Tutorial

!

Das obige ist der detaillierte Inhalt vonEine kurze Analyse der Prinzipien der hohen Parallelität in Node. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:juejin.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage