了解 Node.js 中的流 — 高效的数据处理
Les flux sont une fonctionnalité puissante de Node.js qui permet de gérer efficacement de grandes quantités de données en les traitant pièce par pièce, plutôt que de tout charger en mémoire en même temps. Ils sont particulièrement utiles pour traiter des fichiers volumineux, des données en temps réel ou même des connexions réseau. Dans cet article, nous approfondirons les flux Node.js, couvrant les types de flux, comment les utiliser avec des exemples de code et un cas d'utilisation réel pour consolider votre compréhension.
Que sont les flux ?
Un flux est une séquence de données qui est traitée au fil du temps. Dans Node.js, les flux sont des instances d'EventEmitter, ce qui signifie qu'ils peuvent émettre et répondre à des événements. Les flux permettent aux données d'être lues et écrites en morceaux (petits morceaux) plutôt que de charger toutes les données en même temps, ce qui les rend plus efficaces en termes de mémoire et plus rapides.
Pourquoi utiliser les flux ?
- Utilisation efficace de la mémoire : les flux traitent les données au fur et à mesure qu'elles arrivent en morceaux, sans avoir à charger l'intégralité de l'ensemble de données en mémoire.
- Traitement plus rapide : ils commencent à traiter les données dès qu'elles sont disponibles, plutôt que d'attendre que tout se charge.
- E/S non bloquantes : étant donné que les flux fonctionnent de manière asynchrone, ils ne bloquent pas les autres opérations, ce qui les rend idéaux pour les applications en temps réel.
Types de flux
Node.js propose quatre types de flux :
- Flux lisibles : utilisé pour lire les données de manière séquentielle.
- Flux inscriptibles : utilisé pour écrire des données de manière séquentielle.
- Flux duplex : peuvent être à la fois lisibles et inscriptibles.
- Transform Streams : Un flux duplex où la sortie est une transformation de l'entrée.
Explorons chaque type de flux avec des exemples.
Flux lisibles
Un flux lisible vous permet de consommer des données, morceau par morceau, à partir d'une source telle qu'un fichier ou une requête réseau.
Exemple : Lecture d'un fichier à l'aide d'un flux lisible
const fs = require('fs'); // Create a readable stream const readableStream = fs.createReadStream('example.txt', 'utf8'); // Listen for 'data' events to read chunks of data readableStream.on('data', (chunk) => { console.log('New chunk received:'); console.log(chunk); }); // Handle 'end' event when the file has been completely read readableStream.on('end', () => { console.log('File reading completed.'); }); // Handle any errors readableStream.on('error', (err) => { console.error('Error reading file:', err.message); });
Explication :
- fs.createReadStream() crée un flux pour lire le contenu de example.txt.
- Le flux émet des événements « données » pour chaque morceau qu'il lit, et un événement « fin » lorsqu'il termine la lecture.
Flux inscriptibles
Les flux inscriptibles sont utilisés pour écrire des données morceau par morceau, par exemple pour enregistrer des données dans un fichier.
Exemple : Écriture de données dans un fichier à l'aide d'un flux inscriptible
const fs = require('fs'); // Create a writable stream const writableStream = fs.createWriteStream('output.txt'); // Write chunks of data to the file writableStream.write('First chunk of data.\n'); writableStream.write('Second chunk of data.\n'); // End the stream writableStream.end('Final chunk of data.'); // Handle 'finish' event when writing is complete writableStream.on('finish', () => { console.log('Data writing completed.'); }); // Handle any errors writableStream.on('error', (err) => { console.error('Error writing to file:', err.message); });
Explication :
- fs.createWriteStream() crée un flux inscriptible à écrire dans output.txt.
- La méthode write() est utilisée pour envoyer des morceaux de données au flux. Une fois toutes les données écrites, la méthode end() est appelée, signalant la fin du flux.
Flux duplex
Les flux duplex peuvent à la fois lire et écrire des données et sont utilisés pour des opérations telles que les protocoles réseau où vous devez envoyer et recevoir des données.
Exemple : Flux duplex personnalisé
const { Duplex } = require('stream'); // Create a custom duplex stream const myDuplexStream = new Duplex({ read(size) { this.push('Reading data...'); this.push(null); // No more data to read }, write(chunk, encoding, callback) { console.log(`Writing: ${chunk.toString()}`); callback(); } }); // Read from the stream myDuplexStream.on('data', (chunk) => { console.log(chunk.toString()); }); // Write to the stream myDuplexStream.write('This is a test.'); myDuplexStream.end();
Explication :
- Les flux duplex peuvent effectuer des opérations de lecture et d’écriture. Dans l'exemple, nous définissons des méthodes de lecture et d'écriture personnalisées pour le flux duplex.
Transformer les flux
Les flux de transformation vous permettent de modifier ou de transformer les données au fur et à mesure de leur passage. Il s'agit d'un type spécial de flux duplex.
Exemple : Un simple flux de transformation en texte majuscule
const { Transform } = require('stream'); // Create a custom transform stream const toUpperCaseTransform = new Transform({ transform(chunk, encoding, callback) { this.push(chunk.toString().toUpperCase()); callback(); } }); // Pipe data through the transform stream process.stdin.pipe(toUpperCaseTransform).pipe(process.stdout);
Explication :
- Les flux de transformation prennent les entrées, les traitent (dans ce cas, en convertissant le texte en majuscules) et génèrent les données modifiées.
- Dans cet exemple, les données sont acheminées depuis l'entrée standard (process.stdin) via le flux de transformation, et le résultat est affiché vers la console (process.stdout).
Flux de tuyauterie
L'une des façons les plus courantes de travailler avec des flux est de les "rassembler". Cela signifie transmettre des données d’un flux à un autre. Ceci est utile lorsque vous devez traiter des données étape par étape, comme lire un fichier et écrire dans un autre fichier.
Exemple : transférer un flux lisible vers un flux inscriptible
const fs = require('fs'); // Create a readable stream const readableStream = fs.createReadStream('input.txt'); // Create a writable stream const writableStream = fs.createWriteStream('output.txt'); // Pipe the readable stream into the writable stream readableStream.pipe(writableStream); // Handle 'finish' event when piping is done writableStream.on('finish', () => { console.log('File copied successfully.'); });
Explication :
- La méthode pipe() transmet les données du flux lisible (input.txt) directement au flux inscriptible (output.txt).
Cas d'utilisation réel : diffuser un téléchargement de fichiers volumineux
Dans les applications du monde réel, vous devrez peut-être télécharger des fichiers volumineux sur le serveur. Au lieu de charger l'intégralité du fichier en mémoire, vous pouvez utiliser des flux pour gérer efficacement les téléchargements de fichiers.
Exemple : Téléchargement d'un fichier à l'aide de flux avec Node.js et multer
const express = require('express'); const multer = require('multer'); const fs = require('fs'); const app = express(); const upload = multer({ dest: 'uploads/' }); app.post('/upload', upload.single('file'), (req, res) => { const readableStream = fs.createReadStream(req.file.path); const writableStream = fs.createWriteStream(`./uploads/${req.file.originalname}`); // Pipe the uploaded file to the writable stream readableStream.pipe(writableStream); writableStream.on('finish', () => { res.send('File uploaded and saved.'); }); writableStream.on('error', (err) => { res.status(500).send('Error saving file.'); }); }); app.listen(3000, () => { console.log('Server is running on port 3000'); });
Explanation:
- We use multer to handle file uploads. When the file is uploaded, it is piped from a temporary location to the desired directory on the server.
- This method is efficient as it streams the file data instead of holding it all in memory at once.
Best Practices for Working with Streams
- Error Handling: Always handle errors in streams to avoid unhandled exceptions, especially when dealing with file systems or network operations.
Example:
readableStream.on('error', (err) => { console.error('Stream error:', err.message); });
- Flow Control: Be mindful of flow control when reading and writing data, as writable streams can become overwhelmed if data is being written faster than it can be consumed.
Example:
writableStream.write(chunk, (err) => { if (err) console.error('Error writing chunk:', err.message); });
- Use Pipe for Simplicity: When transferring data between streams, always prefer using pipe() instead of manually managing the flow of data.
Conclusion
Streams in Node.js offer a powerful and efficient way to handle data, especially in cases where data comes in large quantities or needs to be processed incrementally. From reading and writing files to handling network requests and processing data in real time, streams allow you to build scalable and performant applications. In this article, we explored the different types of streams, how to use them, and real-world use cases to deepen your understanding of stream-based processing in Node.js.
以上是了解 Node.js 中的流 — 高效的数据处理的详细内容。更多信息请关注PHP中文网其他相关文章!

热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SublimeText3汉化版
中文版,非常好用

禅工作室 13.0.1
功能强大的PHP集成开发环境

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

不同JavaScript引擎在解析和执行JavaScript代码时,效果会有所不同,因为每个引擎的实现原理和优化策略各有差异。1.词法分析:将源码转换为词法单元。2.语法分析:生成抽象语法树。3.优化和编译:通过JIT编译器生成机器码。4.执行:运行机器码。V8引擎通过即时编译和隐藏类优化,SpiderMonkey使用类型推断系统,导致在相同代码上的性能表现不同。

Python更适合初学者,学习曲线平缓,语法简洁;JavaScript适合前端开发,学习曲线较陡,语法灵活。1.Python语法直观,适用于数据科学和后端开发。2.JavaScript灵活,广泛用于前端和服务器端编程。

从C/C 转向JavaScript需要适应动态类型、垃圾回收和异步编程等特点。1)C/C 是静态类型语言,需手动管理内存,而JavaScript是动态类型,垃圾回收自动处理。2)C/C 需编译成机器码,JavaScript则为解释型语言。3)JavaScript引入闭包、原型链和Promise等概念,增强了灵活性和异步编程能力。

JavaScript在Web开发中的主要用途包括客户端交互、表单验证和异步通信。1)通过DOM操作实现动态内容更新和用户交互;2)在用户提交数据前进行客户端验证,提高用户体验;3)通过AJAX技术实现与服务器的无刷新通信。

JavaScript在现实世界中的应用包括前端和后端开发。1)通过构建TODO列表应用展示前端应用,涉及DOM操作和事件处理。2)通过Node.js和Express构建RESTfulAPI展示后端应用。

理解JavaScript引擎内部工作原理对开发者重要,因为它能帮助编写更高效的代码并理解性能瓶颈和优化策略。1)引擎的工作流程包括解析、编译和执行三个阶段;2)执行过程中,引擎会进行动态优化,如内联缓存和隐藏类;3)最佳实践包括避免全局变量、优化循环、使用const和let,以及避免过度使用闭包。

Python和JavaScript在社区、库和资源方面的对比各有优劣。1)Python社区友好,适合初学者,但前端开发资源不如JavaScript丰富。2)Python在数据科学和机器学习库方面强大,JavaScript则在前端开发库和框架上更胜一筹。3)两者的学习资源都丰富,但Python适合从官方文档开始,JavaScript则以MDNWebDocs为佳。选择应基于项目需求和个人兴趣。

Python和JavaScript在开发环境上的选择都很重要。1)Python的开发环境包括PyCharm、JupyterNotebook和Anaconda,适合数据科学和快速原型开发。2)JavaScript的开发环境包括Node.js、VSCode和Webpack,适用于前端和后端开发。根据项目需求选择合适的工具可以提高开发效率和项目成功率。
