大量のデータを処理する場合、Node.js でストリームを使用すると、パフォーマンスと効率の点で大きな利点が得られます。ストリームを使用すると、データを連続的にチャンク単位で処理できるため、メモリへのファイルの完全なロードが回避されます。この記事では、実際的な例を使用して、大きなテキスト ファイルを効率的に変換する方法を示しながら、ストリームを使用する利点について説明します。
ストリームは、一度にすべてをメモリにロードするのではなく、データをチャンクで処理できるようにする Node.js の抽象化です。 Node.js には主に 4 つのタイプのストリームがあります:
ストリームを使用すると、データはチャンク単位で処理されます。つまり、ファイル全体をメモリにロードする必要はありません。これはメモリの問題を回避し、システムのパフォーマンスを向上させるため、大きなファイルの場合に非常に重要です。
ストリームにより、継続的なデータ処理が可能になります。たとえば、次のデータを受信している間に最初のデータ チャンクの処理を開始できるため、合計の処理時間が短縮されます。
ストリームは Node.js イベント ループをブロックしないため、I/O 集中型の操作中であってもアプリケーションの応答性を維持できます。
始める前に、テスト用に大きなテキスト ファイルを作成しましょう。次の Python スクリプトを使用して、10 GB のファイルを生成できます:
# generator.py # Define o tamanho do arquivo em bytes (10GB) file_size = 10000 * 1024 * 1024 # 10 GB # Linha que será escrita repetidas vezes no arquivo line = "This is a line of text to be transformed. Adding more text to increase the size of each line.\n" # Calcula o número de linhas necessárias para preencher o arquivo num_lines = file_size // len(line) # Cria e escreve o arquivo file_path = "large-input.txt" with open(file_path, "w") as file: for _ in range(num_lines): file.write(line) print(f"File created successfully at {file_path}")
上記のスクリプトを実行するには、generator.py として保存し、次のコマンドを使用して実行します。
python3 generator.py
これは、large-input.txt の内容を大文字に変換し、結果をlarge-output.txt に保存する Node.js のコードです。また、10% ごとの進行状況と合計プロセス時間も表示されます。
// src/index.js const fs = require('fs'); const { Transform } = require('stream'); const { performance } = require('perf_hooks'); // Caminho para o arquivo de entrada e saída const inputFile = 'large-input.txt'; const outputFile = 'large-output.txt'; // Cria um Readable Stream a partir do arquivo de entrada const readableStream = fs.createReadStream(inputFile, { encoding: 'utf8' }); // Cria um Writable Stream para o arquivo de saída const writableStream = fs.createWriteStream(outputFile); // Variáveis para rastreamento de progresso let totalSize = 0; let processedSize = 0; let lastLoggedProgress = 0; const startTime = performance.now(); let processedLines = 0; fs.stat(inputFile, (err, stats) => { if (err) { console.error('Erro ao obter informações do arquivo:', err); return; } totalSize = stats.size; // Pipe o Readable Stream para o Transform Stream e depois para o Writable Stream readableStream .pipe( new Transform({ transform(chunk, encoding, callback) { processedSize += chunk.length; processedLines += chunk.toString().split('\n').length - 1; // Converte o chunk de dados para letras maiúsculas const upperCaseChunk = chunk.toString().toUpperCase(); // Chama o callback com o chunk transformado callback(null, upperCaseChunk); // Log de progresso const progress = (processedSize / totalSize) * 100; if (progress >= lastLoggedProgress + 10) { console.log( `Progresso: ${Math.floor(progress)}%, Linhas processadas: ${processedLines}` ); lastLoggedProgress = Math.floor(progress); } }, }) ) .pipe(writableStream) .on('finish', () => { const endTime = performance.now(); const timeTaken = ((endTime - startTime) / 1000).toFixed(2); console.log('Transformação completa e arquivo salvo.'); console.log(`Total de linhas processadas: ${processedLines}`); console.log(`Tempo total: ${timeTaken} segundos`); }) .on('error', (err) => { console.error('Erro durante a transformação:', err); }); });
ストリームは、大量のデータを操作するための Node.js の強力なツールです。ストリームを使用すると、ファイルを効率的に処理し、アプリケーションの応答性を維持し、メモリの問題を回避できます。上の例は、ストリームを使用して大きなテキスト ファイルを変換し、プロセスの進行状況と合計時間を表示する方法を示しています。
詳細と完全なコードへのアクセスについては、私の GitHub リポジトリにアクセスしてください。
以上がNode.js でストリームを使用する利点の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。