Heim > Web-Frontend > js-Tutorial > Hauptteil

Vertiefendes Verständnis von Streams in Node.js

青灯夜游
Freigeben: 2020-08-13 17:30:50
nach vorne
3406 Leute haben es durchsucht

Vertiefendes Verständnis von Streams in Node.js

Streams in Node.js sind bekanntermaßen schwer zu verwenden oder gar zu verstehen. [Video-Tutorial-Empfehlung: nodejs-Video-Tutorial]

In den Worten von Dominic Tarr: „Streams sind die beste und am meisten missverstandene Idee in Node.“ Sogar der Schöpfer von Redux und der Kern von React.js Teammitglied ist Dan Abramov Ich habe auch Angst vor dem Knotenfluss.

Vertiefendes Verständnis von Streams in Node.js

Dieser Artikel hilft Ihnen, Streams zu verstehen und sie zu verwenden. Haben Sie keine Angst, Sie können es völlig herausfinden!

Was ist Stream?

Streams sind eines der grundlegenden Konzepte, die Node.js-Anwendungen antreiben. Dabei handelt es sich um Datenverarbeitungsmethoden, die Eingabedaten sequentiell lesen oder Daten zur Ausgabe schreiben.

Streaming ist eine Möglichkeit, das Lesen und Schreiben von Dateien, die Netzwerkkommunikation oder jede Art von End-to-End-Informationsaustausch auf effiziente Weise abzuwickeln.

Die Art und Weise, wie Streams verarbeitet werden, ist sehr einzigartig. Anstatt die Datei „alle auf einmal“ wie auf herkömmliche Weise in den Speicher einzulesen, lesen Streams Datenblöcke Stück für Stück und verarbeiten den Inhalt der Daten, ohne alles im Speicher zu behalten. Dieser Ansatz macht Streams sehr leistungsfähig, wenn sie

große Datenmengen

verarbeiten. Beispielsweise kann die Größe der Datei größer sein als der verfügbare Speicherplatz, sodass es unmöglich ist, die gesamte Datei zur Verarbeitung in den Speicher einzulesen. Hier kommt der Flow ins Spiel! Mit Streams können Sie kleinere Datenblöcke verarbeiten und größere Dateien lesen.

Nehmen Sie als Beispiel „Streaming“-Dienste wie YouTube oder Netflix: Mit diesen Diensten können Sie Video- und Audiodateien nicht sofort herunterladen. Stattdessen empfängt Ihr Browser das Video als kontinuierlichen Stream von Blöcken, sodass der Empfänger fast sofort mit dem Ansehen und Anhören beginnen kann.

Aber beim Streaming geht es nicht nur um die Verarbeitung von Medien und Big Data. Sie geben uns auch die Möglichkeit der „Zusammensetzbarkeit“ in unserem Code. Bei der Gestaltung auf Zusammensetzbarkeit zu achten bedeutet, dass man mehrere Komponenten auf irgendeine Weise kombinieren kann, um das gleiche Ergebnis zu erzielen. In Node.js können Sie Daten in anderen kleineren Snippets über Streams übergeben, um leistungsstarke Snippets zu bilden.

Warum Streaming nutzen? Streaming hat grundsätzlich zwei wesentliche Vorteile gegenüber anderen Datenverarbeitungsmethoden:

    Speichereffizienz:
  1. Sie müssen nicht viele Daten vorher in den Speicher laden, um sie zu verarbeiten.
  2. Zeiteffizienz:
  3. Die Zeit Der sofortige Start nach dem Abrufen der Daten wird erheblich reduziert. Sie müssen nicht warten, bis die gesamten gültigen Daten gesendet wurden, um mit der Verarbeitung zu beginnen. Es gibt 4 Arten von Streams in Node.js:

Beschreibbarer Stream. Ja Der Stream, in den Daten geschrieben werden. Mit fs.createWriteStream() können wir beispielsweise Daten mithilfe eines Streams in eine Datei schreiben.

Lesbarer Stream:
    Ein Stream, aus dem Daten gelesen werden können. Zum Beispiel: fs.createReadStream() Lassen Sie uns den Inhalt der Datei lesen.
  1. Duplex Stream (lesbarer und beschreibbarer Stream): fs.createWriteStream() 使我们可以使用流将数据写入文件。
  2. 可读流:可从中读取数据的流。例如:fs.createReadStream() 让我们读取文件的内容。
  3. 双工流(可读写的流):可读和可写的流。例如,net.Socket
  4. Transform:可在写入和读取时修改或转换数据。例如在文件压缩的情况下,你可以在文件中写入压缩数据,也可以从文件中读取解压缩的数据。

如果你已经使用过 Node.js,则可能遇到过流。例如在基于 Node.js 的 HTTP 服务器中,request 是可读流,而 response 是可写流。你可能用过 fs 模块,该模块可让你用可读和可写文件流。每当使用 Express 时,你都在使用流与客户端进行交互,而且由于 TCP 套接字、TLS栈和其他连接都基于 Node.js,所以在每个可以使用的数据库连接驱动的程序中使用流。

实例

如何创建可读流?

首先需要可读性流,然后将其初始化。

const Stream = require('stream')
const readableStream = new Stream.Readable()
Nach dem Login kopieren

现在,流已初始化,可以向其发送数据了:

readableStream.push('ping!')
readableStream.push('pong!')
Nach dem Login kopieren

异步迭代器

强烈建议在使用流时配合异步迭代器(async iterator)。根据 Axel Rauschmayer 博士的说法,异步迭代是一种用于异步检索数据容器内容的协议(这意味着当前“任务”可以在检索项目之前被暂停)。另外必须提及的是,流异步迭代器实现使用内部的 readableLesbarer und beschreibbarer Stream. Beispielsweise kann net.Socket

Transform:

Daten beim Schreiben und Lesen ändern oder transformieren. Beispielsweise können Sie bei der Dateikomprimierung komprimierte Daten in die Datei schreiben und dekomprimierte Daten aus der Datei lesen.

Wenn Sie Node.js verwendet haben, sind Sie möglicherweise auf Streams gestoßen. Beispielsweise ist in einem Node.js-basierten HTTP-Server request ein lesbarer Stream und response ein beschreibbarer Stream. Möglicherweise haben Sie das Modul fs verwendet, mit dem Sie lesbare und beschreibbare Dateiströme verwenden können. Wenn Sie Express verwenden, verwenden Sie Streams, um mit dem Client zu interagieren, und da TCP-Sockets, TLS-Stacks und andere Verbindungen alle auf Node.js basieren, verwenden Sie Streams in jedem datenbankverbindungsgesteuerten Programm, das Sie verwenden können. 🎜

Instanz

🎜🎜🎜Wie erstelle ich einen lesbaren Stream? 🎜🎜🎜🎜 Zuerst wird der Lesbarkeitsstream benötigt und dann wird er initialisiert. 🎜
import * as fs from 'fs';

async function logChunks(readable) {
  for await (const chunk of readable) {
    console.log(chunk);
  }
}

const readable = fs.createReadStream(
  'tmp/test.txt', {encoding: 'utf8'});
logChunks(readable);

// Output:
// 'This is a test!\n'
Nach dem Login kopieren
🎜Jetzt ist der Stream initialisiert und Sie können Daten an ihn senden: 🎜
import {Readable} from 'stream';

async function readableToString2(readable) {
  let result = '';
  for await (const chunk of readable) {
    result += chunk;
  }
  return result;
}

const readable = Readable.from('Good morning!', {encoding: 'utf8'});
assert.equal(await readableToString2(readable), 'Good morning!');
Nach dem Login kopieren
Nach dem Login kopieren
🎜🎜🎜Asynchroner Iterator🎜🎜🎜🎜🎜Es wird dringend empfohlen, bei der Verwendung von Streams asynchrone Iteratoren zu verwenden. 🎜Laut Dr. Asynchrone Iteration ist ein Protokoll zum asynchronen Abrufen des Inhalts eines Datencontainers (das bedeutet die Die aktuelle „Aufgabe“ kann vor dem Abrufen des Elements angehalten werden. Es muss auch erwähnt werden, dass die Implementierung des Stream-Async-Iterators das interne readable-Ereignis verwendet. 🎜🎜Beim Lesen aus einem lesbaren Stream können Sie einen asynchronen Iterator verwenden: 🎜
const { Readable } = require('stream');

async function * generate() {
  yield 'hello';
  yield 'streams';
}

const readable = Readable.from(generate());

readable.on('data', (chunk) => {
  console.log(chunk);
});
Nach dem Login kopieren
Nach dem Login kopieren
🎜🎜Sie können auch eine Zeichenfolge verwenden, um den Inhalt des lesbaren Streams zu sammeln: 🎜🎜
import {Readable} from 'stream';

async function readableToString2(readable) {
  let result = '';
  for await (const chunk of readable) {
    result += chunk;
  }
  return result;
}

const readable = Readable.from('Good morning!', {encoding: 'utf8'});
assert.equal(await readableToString2(readable), 'Good morning!');
Nach dem Login kopieren
Nach dem Login kopieren

注意,在这种情况下必须使用异步函数,因为我们想返回 Promise。

请切记不要将异步功能与 EventEmitter 混合使用,因为当前在事件处理程序中发出拒绝时,无法捕获拒绝,从而导致难以跟踪错误和内存泄漏。目前的最佳实践是始终将异步函数的内容包装在 try/catch 块中并处理错误,但这很容易出错。 这个 pull request 旨在解决一旦其落在 Node 核心上产生的问题。

要了解有关异步迭代的 Node.js 流的更多信息,请查看这篇很棒的文章

Readable.from():从可迭代对象创建可读流

stream.Readable.from(iterable, [options]) 这是一种实用方法,用于从迭代器中创建可读流,该迭代器保存可迭代对象中包含的数据。可迭代对象可以是同步可迭代对象或异步可迭代对象。参数选项是可选的,除其他作用外,还可以用于指定文本编码。

const { Readable } = require('stream');

async function * generate() {
  yield 'hello';
  yield 'streams';
}

const readable = Readable.from(generate());

readable.on('data', (chunk) => {
  console.log(chunk);
});
Nach dem Login kopieren
Nach dem Login kopieren

两种读取模式

根据 Streams API,可读流有效地以两种模式之一运行:flowingpaused。可读流可以处于对象模式,无论处于 flowing 模式还是 paused 模式。

  • 流模式下,将自动从底层系统读取数据,并通过 EventEmitter 接口使用事件将其尽快提供给程序。
  • paused 模式下,必须显式调用 stream.read() 方法以从流中读取数据块。

在 flowing 模式中,要从流中读取数据,可以监听数据事件并附加回调。当有大量数据可用时,可读流将发出一个数据事件,并执行你的回调。看下面的代码片段:

var fs = require("fs");
var data = '';

var readerStream = fs.createReadStream('file.txt'); //Create a readable stream

readerStream.setEncoding('UTF8'); // Set the encoding to be utf8. 

// Handle stream events --> data, end, and error
readerStream.on('data', function(chunk) {
   data += chunk;
});

readerStream.on('end',function() {
   console.log(data);
});

readerStream.on('error', function(err) {
   console.log(err.stack);
});

console.log("Program Ended");
Nach dem Login kopieren

函数调用 fs.createReadStream() 给你一个可读流。最初流处于静态状态。一旦你侦听数据事件并附加了回调,它就会开始流动。之后将读取大块数据并将其传递给你的回调。流实现者决定发送数据事件的频率。例如,每当有几 KB 的数据被读取时,HTTP 请求就可能发出一个数据事件。当从文件中读取数据时,你可能会决定读取一行后就发出数据事件。

当没有更多数据要读取(结束)时,流将发出结束事件。在以上代码段中,我们监听此事件以在结束时得到通知。

另外,如果有错误,流将发出并通知错误。

在 paused 模式下,你只需在流实例上重复调用 read(),直到读完所有数据块为止,如以下示例所示:

var fs = require('fs');
var readableStream = fs.createReadStream('file.txt');
var data = '';
var chunk;

readableStream.on('readable', function() {
    while ((chunk=readableStream.read()) != null) {
        data += chunk;
    }
});

readableStream.on('end', function() {
    console.log(data)
});
Nach dem Login kopieren

read() 函数从内部缓冲区读取一些数据并将其返回。当没有内容可读取时返回 null。所以在 while 循环中,我们检查是否为 null 并终止循环。请注意,当可以从流中读取大量数据时,将会发出可读事件。

所有 Readable 流均以 paused 模式开始,但可以通过以下方式之一切换为 flowing 模式

  • 添加一个 'data' 事件处理。
  • 调用 stream.resume() 方法。
  • 调用 stream.pipe() 方法将数据发送到可写对象。

Readable 可以使以下方法之一切换回 paused 模式:

  • 如果没有管道目标,则通过调用 stream.pause() 方法。
  • 如果有管道目标,请删除所有管道目标。可以通过调用 stream.unpipe() 方法来删除多个管道目标。

一个需要记住的重要概念是,除非提供了一种用于消耗或忽略该数据的机制,否则 Readable 将不会生成数据。如果使用机制被禁用或取消,则 Readable 将会试图停止生成数据。添加 readable 事件处理会自动使流停止 flowing,并通过 read.read() 得到数据。如果删除了 readable 事件处理,那么如果存在 'data' 事件处理,则流将再次开始 flowing。

如何创建可写流?

要将数据写入可写流,你需要在流实例上调用 write()。如以下示例所示:

var fs = require('fs');
var readableStream = fs.createReadStream('file1.txt');
var writableStream = fs.createWriteStream('file2.txt');

readableStream.setEncoding('utf8');

readableStream.on('data', function(chunk) {
    writableStream.write(chunk);
});
Nach dem Login kopieren

上面的代码很简单。它只是简单地从输入流中读取数据块,并使用 write() 写入目的地。该函数返回一个布尔值,指示操作是否成功。如果为 true,则写入成功,你可以继续写入更多数据。如果返回 false,则表示出了点问题,你目前无法写任何内容。可写流将通过发出 drain 事件来通知你什么时候可以开始写入更多数据。

调用 writable.end() 方法表示没有更多数据将被写入 Writable。如果提供,则可选的回调函数将作为 finish 事件的侦听器附加。

// Write 'hello, ' and then end with 'world!'.
const fs = require('fs');
const file = fs.createWriteStream('example.txt');
file.write('hello, ');
file.end('world!');
// Writing more now is not allowed!
Nach dem Login kopieren

你可以用可写流从可读流中读取数据:

const Stream = require('stream')

const readableStream = new Stream.Readable()
const writableStream = new Stream.Writable()

writableStream._write = (chunk, encoding, next) => {
    console.log(chunk.toString())
    next()
}

readableStream.pipe(writableStream)

readableStream.push('ping!')
readableStream.push('pong!')

writableStream.end()
Nach dem Login kopieren

还可以用异步迭代器来写入可写流,建议使用

import * as util from 'util';
import * as stream from 'stream';
import * as fs from 'fs';
import {once} from 'events';

const finished = util.promisify(stream.finished); // (A)

async function writeIterableToFile(iterable, filePath) {
  const writable = fs.createWriteStream(filePath, {encoding: 'utf8'});
  for await (const chunk of iterable) {
    if (!writable.write(chunk)) { // (B)
      // Handle backpressure
      await once(writable, 'drain');
    }
  }
  writable.end(); // (C)
  // Wait until done. Throws if there are errors.
  await finished(writable);
}

await writeIterableToFile(
  ['One', ' line of text.\n'], 'tmp/log.txt');
assert.equal(
  fs.readFileSync('tmp/log.txt', {encoding: 'utf8'}),
  'One line of text.\n');
Nach dem Login kopieren

stream.finished() 的默认版本是基于回调的,但是可以通过 util.promisify() 转换为基于 Promise 的版本(A行)。

在此例中,使用以下两种模式:

Writing to a writable stream while handling backpressure (line B):
在处理 backpressure 时写入可写流(B行):

if (!writable.write(chunk)) {
  await once(writable, 'drain');
}
Nach dem Login kopieren

关闭可写流,并等待写入完成(C行):

writable.end();
await finished(writable);
Nach dem Login kopieren

pipeline()

pipeline(管道)是一种机制,可以将一个流的输出作为另一流的输入。它通常用于从一个流中获取数据并将该流的输出传递到另一个流。管道操作没有限制。换句话说,管道可用于分多个步骤处理流数据。

在 Node 10.x 中引入了 stream.pipeline()。这是一种模块方法,用于在流转发错误和正确清理之间进行管道传输,并在管道完成后提供回调。

这是使用管道的例子:

const { pipeline } = require('stream');
const fs = require('fs');
const zlib = require('zlib');

// 使用 pipeline API 可以轻松将一系列流
// 通过管道传输在一起,并在管道完全完成后得到通知。
// 一个有效地用 gzip压缩巨大视频文件的管道:

pipeline(
  fs.createReadStream('The.Matrix.1080p.mkv'),
  zlib.createGzip(),
  fs.createWriteStream('The.Matrix.1080p.mkv.gz'),
  (err) => {
    if (err) {
      console.error('Pipeline failed', err);
    } else {
      console.log('Pipeline succeeded');
    }
  }
);
Nach dem Login kopieren

由于pipe 不安全,应使用 pipeline 代替 pipe

流模块

Node.js 流模块 提供了构建所有流 API 的基础。

Stream 模块是 Node.js 中默认提供的原生模块。 Stream 是 EventEmitter 类的实例,该类在 Node 中异步处理事件。因此流本质上是基于事件的。

要访问流模块:

const stream = require('stream');
Nach dem Login kopieren

stream 模块对于创建新型流实例非常有用。通常不需要使用 stream 模块来消耗流。

流驱动的 Node API

由于它们的优点,许多 Node.js 核心模块提供了原生流处理功能,最值得注意的是:

  • net.Socket 是流所基于的主 API 节点,它是以下大多数 API 的基础
  • process.stdin 返回连接到 stdin 的流
  • process.stdout 返回连接到 stdout 的流
  • process.stderr 返回连接到 stderr 的流
  • fs.createReadStream() 创建一个可读的文件流
  • fs.createWriteStream() 创建可写的文件流
  • net.connect() 启动基于流的连接
  • http.request() 返回 http.ClientRequest 类的实例,它是可写流
  • zlib.createGzip() 使用gzip(一种压缩算法)将数据压缩到流中
  • zlib.createGunzip() 解压缩 gzip 流。
  • zlib.createDeflate() deflate(压缩算法)将数据压缩到流中
  • zlib.createInflate() 解压缩一个deflate流

流 备忘单:

Vertiefendes Verständnis von Streams in Node.js

Vertiefendes Verständnis von Streams in Node.js

Vertiefendes Verständnis von Streams in Node.js

Vertiefendes Verständnis von Streams in Node.js

Vertiefendes Verständnis von Streams in Node.js

查看更多:Node.js 流速查表

以下是与可写流相关的一些重要事件:

  • error – Zeigt an, dass beim Schreiben oder Konfigurieren der Pipeline ein Fehler aufgetreten ist. error –表示在写或配置管道时发生了错误。
  • pipeline – 当把可读流传递到可写流中时,该事件由可写流发出。
  • unpipe
  • pipeline – Dieses Ereignis wird von einem beschreibbaren Stream ausgegeben, wenn ein lesbarer Stream an einen beschreibbaren Stream übergeben wird.

unpipe – Wird ausgegeben, wenn Sie unpipe für einen lesbaren Stream aufrufen und die Weiterleitung an den Zielstream beenden.

Fazit

Das sind alle Grundlagen zum Thema Streaming. Streams, Pipes und Ketten sind die zentralen und leistungsstärksten Funktionen von Node.js. Streams helfen Ihnen wirklich dabei, prägnanten und effizienten Code für die Durchführung von E/A zu schreiben. Außerdem gibt es einen Node.js-Strategieplan

, auf den man sich freuen kann, genannt
BOB

, der darauf abzielt, den internen Datenfluss von Node.js sowie die öffentliche API zu verbessern, die hoffentlich als zukünftiges Node.js dienen wird Streaming-Datenschnittstelle.

Englische Originaladresse: https://nodesource.com/blog/understanding-streams-in-nodejs

Autor: Liz Parody

Übersetzung: Crazy Technology House

Verwandte Empfehlungen: 🎜nodejs-Tutorial🎜🎜

Das obige ist der detaillierte Inhalt vonVertiefendes Verständnis von Streams in Node.js. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:segmentfault.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage