Node.js v25.0.0 文档
- Node.js v25.0.0
-
目录
- 流
- 本文档的组织结构
- 流的类型
- 面向流消费者的 API
- 可写流
- 类:
stream.Writable
- 事件:
'close'
- 事件:
'drain'
- 事件:
'error'
- 事件:
'finish'
- 事件:
'pipe'
- 事件:
'unpipe'
writable.cork()
writable.destroy([error])
writable.closed
writable.destroyed
writable.end([chunk[, encoding]][, callback])
writable.setDefaultEncoding(encoding)
writable.uncork()
writable.writable
writable.writableAborted
writable.writableEnded
writable.writableCorked
writable.errored
writable.writableFinished
writable.writableHighWaterMark
writable.writableLength
writable.writableNeedDrain
writable.writableObjectMode
writable[Symbol.asyncDispose]()
writable.write(chunk[, encoding][, callback])
- 事件:
- 类:
- 可读流
- 两种读取模式
- 三种状态
- 选择一种 API 风格
- 类:
stream.Readable
- 事件:
'close'
- 事件:
'data'
- 事件:
'end'
- 事件:
'error'
- 事件:
'pause'
- 事件:
'readable'
- 事件:
'resume'
readable.destroy([error])
readable.closed
readable.destroyed
readable.isPaused()
readable.pause()
readable.pipe(destination[, options])
readable.read([size])
readable.readable
readable.readableAborted
readable.readableDidRead
readable.readableEncoding
readable.readableEnded
readable.errored
readable.readableFlowing
readable.readableHighWaterMark
readable.readableLength
readable.readableObjectMode
readable.resume()
readable.setEncoding(encoding)
readable.unpipe([destination])
readable.unshift(chunk[, encoding])
readable.wrap(stream)
readable[Symbol.asyncIterator]()
readable[Symbol.asyncDispose]()
readable.compose(stream[, options])
readable.iterator([options])
readable.map(fn[, options])
readable.filter(fn[, options])
readable.forEach(fn[, options])
readable.toArray([options])
readable.some(fn[, options])
readable.find(fn[, options])
readable.every(fn[, options])
readable.flatMap(fn[, options])
readable.drop(limit[, options])
readable.take(limit[, options])
readable.reduce(fn[, initial[, options]])
- 事件:
- 双工流和转换流
stream.finished(stream[, options], callback)
stream.pipeline(source[, ...transforms], destination, callback)
stream.pipeline(streams, callback)
stream.compose(...streams)
stream.isErrored(stream)
stream.isReadable(stream)
stream.isWritable(stream)
stream.Readable.from(iterable[, options])
stream.Readable.fromWeb(readableStream[, options])
stream.Readable.isDisturbed(stream)
stream.Readable.toWeb(streamReadable[, options])
stream.Writable.fromWeb(writableStream[, options])
stream.Writable.toWeb(streamWritable)
stream.Duplex.from(src)
stream.Duplex.fromWeb(pair[, options])
stream.Duplex.toWeb(streamDuplex)
stream.addAbortSignal(signal, stream)
stream.getDefaultHighWaterMark(objectMode)
stream.setDefaultHighWaterMark(objectMode, value)
- 可写流
- 面向流实现者的 API
- 补充说明
- 流
-
索引
- 断言测试
- 异步上下文跟踪
- 异步钩子
- 缓冲区
- C++ 插件
- 使用 Node-API 的 C/C++ 插件
- C++ 嵌入器 API
- 子进程
- 集群
- 命令行选项
- 控制台
- 加密
- 调试器
- 已弃用的 API
- 诊断通道
- DNS
- 域
- 环境变量
- 错误
- 事件
- 文件系统
- 全局对象
- HTTP
- HTTP/2
- HTTPS
- 检查器
- 国际化
- 模块:CommonJS 模块
- 模块:ECMAScript 模块
- 模块:
node:module
API - 模块:包
- 模块:TypeScript
- 网络
- 操作系统
- 路径
- 性能钩子
- 权限
- 进程
- Punycode
- 查询字符串
- 逐行读取
- REPL
- 报告
- 单一可执行文件应用
- SQLite
- 流
- 字符串解码器
- 测试运行器
- 定时器
- TLS/SSL
- 跟踪事件
- TTY
- UDP/数据报
- URL
- 实用工具
- V8
- 虚拟机
- WASI
- Web Crypto API
- Web Streams API
- 工作线程
- Zlib
- 其他版本
- 选项
流[源码]#
源代码: lib/stream.js
流是在 Node.js 中处理流式数据的抽象接口。node:stream
模块提供了一个用于实现流接口的 API。
Node.js 提供了许多流对象。例如,一个对 HTTP 服务器的请求和 process.stdout
都是流的实例。
流可以是可读的、可写的,或两者兼备。所有流都是 EventEmitter
的实例。
要访问 node:stream
模块
const stream = require('node:stream');
node:stream
模块对于创建新型的流实例非常有用。通常消费流并不需要使用 node:stream
模块。
本文档的组织结构#
本文档包含两个主要部分和一个用于说明的第三部分。第一部分解释了如何在应用程序中使用现有的流。第二部分解释了如何创建新型的流。
流的类型#
Node.js 中有四种基本的流类型
可写流(Writable)
:可以向其写入数据的流(例如,fs.createWriteStream()
)。可读流(Readable)
:可以从中读取数据的流(例如,fs.createReadStream()
)。双工流(Duplex)
:既是可读流
又是可写流
的流(例如,net.Socket
)。转换流(Transform)
:在写入和读取数据时可以修改或转换数据的双工流
(例如,zlib.createDeflate()
)。
此外,该模块还包括实用函数 stream.duplexPair()
、stream.pipeline()
、stream.finished()
、stream.Readable.from()
和 stream.addAbortSignal()
。
流 Promises API#
stream/promises
API 为流提供了一组替代的异步实用函数,这些函数返回 Promise
对象而不是使用回调。该 API 可通过 require('node:stream/promises')
或 require('node:stream').promises
访问。
stream.pipeline(streams[, options])
#
stream.pipeline(source[, ...transforms], destination[, options])
#
streams
<Stream[]> | <Iterable[]> | <AsyncIterable[]> | <Function[]>source
<Stream> | <Iterable> | <AsyncIterable> | <Function>- 返回: <Promise> | <AsyncIterable>
...transforms
<Stream> | <Function>source
<AsyncIterable>- 返回: <Promise> | <AsyncIterable>
destination
<Stream> | <Function>source
<AsyncIterable>- 返回: <Promise> | <AsyncIterable>
options
<Object> 管道选项signal
<AbortSignal>end
<boolean> 当源流结束时结束目标流。转换流总是会被结束,即使该值为false
。默认值:true
。
- 返回:<Promise> 当管道完成时履行。
const { pipeline } = require('node:stream/promises');
const fs = require('node:fs');
const zlib = require('node:zlib');
async function run() {
await pipeline(
fs.createReadStream('archive.tar'),
zlib.createGzip(),
fs.createWriteStream('archive.tar.gz'),
);
console.log('Pipeline succeeded.');
}
run().catch(console.error);
import { pipeline } from 'node:stream/promises';
import { createReadStream, createWriteStream } from 'node:fs';
import { createGzip } from 'node:zlib';
await pipeline(
createReadStream('archive.tar'),
createGzip(),
createWriteStream('archive.tar.gz'),
);
console.log('Pipeline succeeded.');
要使用 AbortSignal
,请将其作为最后一个参数在一个选项对象中传递。当信号中止时,destroy
将在底层管道上被调用,并带有一个 AbortError
。
const { pipeline } = require('node:stream/promises');
const fs = require('node:fs');
const zlib = require('node:zlib');
async function run() {
const ac = new AbortController();
const signal = ac.signal;
setImmediate(() => ac.abort());
await pipeline(
fs.createReadStream('archive.tar'),
zlib.createGzip(),
fs.createWriteStream('archive.tar.gz'),
{ signal },
);
}
run().catch(console.error); // AbortError
import { pipeline } from 'node:stream/promises';
import { createReadStream, createWriteStream } from 'node:fs';
import { createGzip } from 'node:zlib';
const ac = new AbortController();
const { signal } = ac;
setImmediate(() => ac.abort());
try {
await pipeline(
createReadStream('archive.tar'),
createGzip(),
createWriteStream('archive.tar.gz'),
{ signal },
);
} catch (err) {
console.error(err); // AbortError
}
pipeline
API 也支持异步生成器
const { pipeline } = require('node:stream/promises');
const fs = require('node:fs');
async function run() {
await pipeline(
fs.createReadStream('lowercase.txt'),
async function* (source, { signal }) {
source.setEncoding('utf8'); // Work with strings rather than `Buffer`s.
for await (const chunk of source) {
yield await processChunk(chunk, { signal });
}
},
fs.createWriteStream('uppercase.txt'),
);
console.log('Pipeline succeeded.');
}
run().catch(console.error);
import { pipeline } from 'node:stream/promises';
import { createReadStream, createWriteStream } from 'node:fs';
await pipeline(
createReadStream('lowercase.txt'),
async function* (source, { signal }) {
source.setEncoding('utf8'); // Work with strings rather than `Buffer`s.
for await (const chunk of source) {
yield await processChunk(chunk, { signal });
}
},
createWriteStream('uppercase.txt'),
);
console.log('Pipeline succeeded.');
请记住处理传入异步生成器的 signal
参数。特别是在异步生成器是管道的源头(即第一个参数)的情况下,否则管道将永远不会完成。
const { pipeline } = require('node:stream/promises');
const fs = require('node:fs');
async function run() {
await pipeline(
async function* ({ signal }) {
await someLongRunningfn({ signal });
yield 'asd';
},
fs.createWriteStream('uppercase.txt'),
);
console.log('Pipeline succeeded.');
}
run().catch(console.error);
import { pipeline } from 'node:stream/promises';
import fs from 'node:fs';
await pipeline(
async function* ({ signal }) {
await someLongRunningfn({ signal });
yield 'asd';
},
fs.createWriteStream('uppercase.txt'),
);
console.log('Pipeline succeeded.');
pipeline
API 提供了回调版本
stream.finished(stream[, options])
#
stream
<Stream> | <ReadableStream> | <WritableStream> 一个可读和/或可写的流/网络流。options
<Object>error
<boolean> | <undefined>readable
<boolean> | <undefined>writable
<boolean> | <undefined>signal
<AbortSignal> | <undefined>cleanup
<boolean> | <undefined> 如果为true
,在 promise 被履行前移除此函数注册的监听器。默认值:false
。
- 返回:<Promise> 当流不再可读或可写时履行。
const { finished } = require('node:stream/promises');
const fs = require('node:fs');
const rs = fs.createReadStream('archive.tar');
async function run() {
await finished(rs);
console.log('Stream is done reading.');
}
run().catch(console.error);
rs.resume(); // Drain the stream.
import { finished } from 'node:stream/promises';
import { createReadStream } from 'node:fs';
const rs = createReadStream('archive.tar');
async function run() {
await finished(rs);
console.log('Stream is done reading.');
}
run().catch(console.error);
rs.resume(); // Drain the stream.
finished
API 也提供了一个回调版本。
stream.finished()
在返回的 promise 被解决或拒绝后,会留下悬空的事件监听器(特别是 'error'
、'end'
、'finish'
和 'close'
)。这样做的原因是为了防止因不正确的流实现而导致的意外 'error'
事件引起意外崩溃。如果不希望出现这种行为,应将 options.cleanup
设置为 true
。
await finished(rs, { cleanup: true });
对象模式#
由 Node.js API 创建的所有流都只操作字符串、<Buffer>、<TypedArray> 和 <DataView> 对象。
字符串
和缓冲区
是流最常用的类型。TypedArray
和DataView
让你能处理像Int32Array
或Uint8Array
这样的二进制数据类型。当你向流中写入一个 TypedArray 或 DataView 时,Node.js 会处理其原始字节。
然而,流的实现也可以处理其他类型的 JavaScript 值(null
除外,它在流中有特殊用途)。这样的流被认为是在“对象模式”下运行。
流实例通过在创建流时使用 objectMode
选项切换到对象模式。尝试将现有流切换到对象模式是不安全的。
缓冲#
潜在缓冲的数据量取决于传入流构造函数的 highWaterMark
选项。对于普通流,highWaterMark
选项指定字节总数。对于在对象模式下运行的流,highWaterMark
指定对象的总数。对于操作(但不解码)字符串的流,highWaterMark
指定 UTF-16 代码单元的总数。
当实现调用 stream.push(chunk)
时,数据被缓冲在可读流
中。如果流的消费者不调用 stream.read()
,数据将一直存放在内部队列中,直到被消费。
一旦内部读取缓冲区的总大小达到 highWaterMark
指定的阈值,流将暂时停止从底层资源读取数据,直到当前缓冲的数据可以被消费(也就是说,流将停止调用用于填充读取缓冲区的内部 readable._read()
方法)。
当重复调用 writable.write(chunk)
方法时,数据被缓冲在可写流
中。当内部写入缓冲区的总大小低于 highWaterMark
设置的阈值时,对 writable.write()
的调用将返回 true
。一旦内部缓冲区的大小达到或超过 highWaterMark
,将返回 false
。
stream
API 的一个关键目标,特别是 stream.pipe()
方法,是将数据缓冲限制在可接受的水平,这样不同速度的源和目的地就不会耗尽可用内存。
highWaterMark
选项是一个阈值,而不是一个限制:它决定了流在停止请求更多数据之前缓冲的数据量。它通常不强制执行严格的内存限制。特定的流实现可能会选择强制执行更严格的限制,但这样做是可选的。
因为双工流
和转换流
既是可读的
又是可写的
,所以它们各自维护着两个独立的用于读和写的内部缓冲区,允许每一侧独立于另一侧操作,同时保持适当且高效的数据流。例如,net.Socket
实例是双工流
,其可读
侧允许消费从套接字接收的数据,其可写
侧允许向套接字写入数据。因为写入套接字的数据速率可能比接收数据的速率快或慢,所以每一侧都应该独立于另一侧进行操作(和缓冲)。
内部缓冲的机制是内部实现细节,可能随时更改。然而,对于某些高级实现,可以使用 writable.writableBuffer
或 readable.readableBuffer
检索内部缓冲区。不鼓励使用这些未文档化的属性。
面向流消费者的 API#
几乎所有的 Node.js 应用程序,无论多么简单,都在某种程度上使用流。以下是在一个实现 HTTP 服务器的 Node.js 应用程序中使用流的示例:
const http = require('node:http');
const server = http.createServer((req, res) => {
// `req` is an http.IncomingMessage, which is a readable stream.
// `res` is an http.ServerResponse, which is a writable stream.
let body = '';
// Get the data as utf8 strings.
// If an encoding is not set, Buffer objects will be received.
req.setEncoding('utf8');
// Readable streams emit 'data' events once a listener is added.
req.on('data', (chunk) => {
body += chunk;
});
// The 'end' event indicates that the entire body has been received.
req.on('end', () => {
try {
const data = JSON.parse(body);
// Write back something interesting to the user:
res.write(typeof data);
res.end();
} catch (er) {
// uh oh! bad json!
res.statusCode = 400;
return res.end(`error: ${er.message}`);
}
});
});
server.listen(1337);
// $ curl localhost:1337 -d "{}"
// object
// $ curl localhost:1337 -d "\"foo\""
// string
// $ curl localhost:1337 -d "not json"
// error: Unexpected token 'o', "not json" is not valid JSON
可写流
(如示例中的 res
)暴露了诸如 write()
和 end()
等方法,用于向流中写入数据。
可读流
使用 EventEmitter
API 来通知应用程序代码何时有数据可从流中读取。可用的数据可以通过多种方式从流中读取。
可写流
和可读流
都以各种方式使用 EventEmitter
API 来传达流的当前状态。
向流写入数据或从流消费数据的应用程序不需要直接实现流接口,并且通常没有理由调用 require('node:stream')
。
希望实现新型流的开发者应参考面向流实现者的 API部分。
可写流#
可写流是对写入数据的目的地的抽象。
可写流
的例子包括:
所有可写
流都实现了由 stream.Writable
类定义的接口。
虽然可写
流的具体实例可能在各方面有所不同,但所有可写
流都遵循下例所示的基本使用模式:
const myStream = getWritableStreamSomehow();
myStream.write('some data');
myStream.write('some more data');
myStream.end('done writing data');
类:stream.Writable
#
事件:'close'
#
当流及其任何底层资源(例如文件描述符)被关闭时,会发出 'close'
事件。该事件表明不会再发出更多事件,也不会发生进一步的计算。
如果一个可写
流是使用 emitClose
选项创建的,它将总是发出 'close'
事件。
事件:'drain'
#
如果对 stream.write(chunk)
的调用返回 false
,则当适合恢复向流中写入数据时,会发出 'drain'
事件。
// Write the data to the supplied writable stream one million times.
// Be attentive to back-pressure.
function writeOneMillionTimes(writer, data, encoding, callback) {
let i = 1000000;
write();
function write() {
let ok = true;
do {
i--;
if (i === 0) {
// Last time!
writer.write(data, encoding, callback);
} else {
// See if we should continue, or wait.
// Don't pass the callback, because we're not done yet.
ok = writer.write(data, encoding);
}
} while (i > 0 && ok);
if (i > 0) {
// Had to stop early!
// Write some more once it drains.
writer.once('drain', write);
}
}
}
事件:'error'
#
- 类型: <Error>
如果在写入或管道传输数据时发生错误,则会发出 'error'
事件。监听器回调在被调用时会传入一个 Error
参数。
除非在创建流时将 autoDestroy
选项设置为 false
,否则在发出 'error'
事件时流会被关闭。
在 'error'
事件之后,除了 'close'
之外,不应该再发出其他事件(包括 'error'
事件)。
事件:'finish'
#
在调用 stream.end()
方法后,并且所有数据都已刷新到底层系统时,会发出 'finish'
事件。
const writer = getWritableStreamSomehow();
for (let i = 0; i < 100; i++) {
writer.write(`hello, #${i}!\n`);
}
writer.on('finish', () => {
console.log('All writes are now complete.');
});
writer.end('This is the end\n');
事件:'pipe'
#
src
<stream.Readable> 正在管道传输到此可写流的源流
当在可读流上调用 stream.pipe()
方法,将此可写流添加到其目标集时,会发出 'pipe'
事件。
const writer = getWritableStreamSomehow();
const reader = getReadableStreamSomehow();
writer.on('pipe', (src) => {
console.log('Something is piping into the writer.');
assert.equal(src, reader);
});
reader.pipe(writer);
事件:'unpipe'
#
src
<stream.Readable> 从此可写流取消管道传输的源流
当在可读流
上调用 stream.unpipe()
方法,将此可写流
从其目标集中移除时,会发出 'unpipe'
事件。
当一个可读流
管道传输到此可写流
时,如果该可写流发出错误,也会发出此事件。
const writer = getWritableStreamSomehow();
const reader = getReadableStreamSomehow();
writer.on('unpipe', (src) => {
console.log('Something has stopped piping into the writer.');
assert.equal(src, reader);
});
reader.pipe(writer);
reader.unpipe(writer);
writable.cork()
#
writable.cork()
方法强制所有写入的数据都缓冲在内存中。当调用 stream.uncork()
或 stream.end()
方法时,缓冲的数据将被刷新。
writable.cork()
的主要目的是为了适应一种情况,即在短时间内向流中写入多个小数据块。writable.cork()
不会立即将它们转发到底层目标,而是缓冲所有数据块,直到调用 writable.uncork()
,届时如果存在 writable._writev()
,它会将所有数据块传递给该方法。这可以防止因等待处理第一个小数据块而导致数据被缓冲的“队头阻塞”情况。但是,在没有实现 writable._writev()
的情况下使用 writable.cork()
可能会对吞吐量产生不利影响。
另请参阅: writable.uncork()
, writable._writev()
.
writable.destroy([error])
#
销毁流。可选择性地发出一个 'error'
事件,并发出一个 'close'
事件(除非 emitClose
设置为 false
)。此调用之后,可写流已结束,后续对 write()
或 end()
的调用将导致 ERR_STREAM_DESTROYED
错误。这是一种破坏性且立即销毁流的方式。之前对 write()
的调用可能尚未排空,并可能触发 ERR_STREAM_DESTROYED
错误。如果数据应在关闭前刷新,请使用 end()
代替 destroy,或等待 'drain'
事件后再销毁流。
const { Writable } = require('node:stream');
const myStream = new Writable();
const fooErr = new Error('foo error');
myStream.destroy(fooErr);
myStream.on('error', (fooErr) => console.error(fooErr.message)); // foo error
const { Writable } = require('node:stream');
const myStream = new Writable();
myStream.destroy();
myStream.on('error', function wontHappen() {});
const { Writable } = require('node:stream');
const myStream = new Writable();
myStream.destroy();
myStream.write('foo', (error) => console.error(error.code));
// ERR_STREAM_DESTROYED
一旦调用了 destroy()
,任何进一步的调用都将是空操作,并且除了来自 _destroy()
的错误外,不会再有其他错误作为 'error'
发出。
实现者不应覆盖此方法,而应实现 writable._destroy()
。
writable.destroyed
#
- 类型:<boolean>
在 writable.destroy()
被调用后为 true
。
const { Writable } = require('node:stream');
const myStream = new Writable();
console.log(myStream.destroyed); // false
myStream.destroy();
console.log(myStream.destroyed); // true
writable.end([chunk[, encoding]][, callback])
#
chunk
<string> | <Buffer> | <TypedArray> | <DataView> | <any> 可选的要写入的数据。对于非对象模式的流,chunk
必须是 <string>、<Buffer>、<TypedArray> 或 <DataView>。对于对象模式的流,chunk
可以是除null
之外的任何 JavaScript 值。encoding
<string> 如果chunk
是字符串,则为编码callback
<Function> 当流完成时的回调函数。- 返回:<this>
调用 writable.end()
方法表示不会再有数据写入到可写流
。可选的 chunk
和 encoding
参数允许在关闭流之前立即写入最后一块额外的数据。
在调用 stream.end()
之后调用 stream.write()
方法将引发错误。
// Write 'hello, ' and then end with 'world!'.
const fs = require('node:fs');
const file = fs.createWriteStream('example.txt');
file.write('hello, ');
file.end('world!');
// Writing more now is not allowed!
writable.uncork()
#
writable.uncork()
方法会刷新自 stream.cork()
被调用以来缓冲的所有数据。
当使用 writable.cork()
和 writable.uncork()
来管理对流的写入缓冲时,使用 process.nextTick()
来推迟对 writable.uncork()
的调用。这样做可以将在给定的 Node.js 事件循环阶段内发生的所有 writable.write()
调用进行批处理。
stream.cork();
stream.write('some ');
stream.write('data ');
process.nextTick(() => stream.uncork());
如果在一个流上多次调用 writable.cork()
方法,则必须调用相同次数的 writable.uncork()
才能刷新缓冲的数据。
stream.cork();
stream.write('some ');
stream.cork();
stream.write('data ');
process.nextTick(() => {
stream.uncork();
// The data will not be flushed until uncork() is called a second time.
stream.uncork();
});
另请参阅: writable.cork()
.
writable.writableEnded
#
- 类型:<boolean>
在调用 writable.end()
后为 true
。此属性不表示数据是否已刷新,请改用 writable.writableFinished
。
writable[Symbol.asyncDispose]()
#
使用一个 AbortError
调用 writable.destroy()
,并返回一个在流完成时履行的 promise。
writable.write(chunk[, encoding][, callback])
#
chunk
<string> | <Buffer> | <TypedArray> | <DataView> | <any> 可选的要写入的数据。对于非对象模式的流,chunk
必须是 <string>、<Buffer>、<TypedArray> 或 <DataView>。对于对象模式的流,chunk
可以是除null
之外的任何 JavaScript 值。encoding
<string> | <null> 编码,如果chunk
是字符串。默认值:'utf8'
callback
<Function> 当此数据块被刷新时的回调函数。- 返回: <boolean> 如果流希望调用代码在继续写入额外数据之前等待
'drain'
事件发出,则为false
;否则为true
。
writable.write()
方法向流中写入一些数据,并在数据被完全处理后调用提供的 callback
。如果发生错误,callback
将被调用,并将错误作为其第一个参数。callback
是异步调用的,并且在发出 'error'
事件之前调用。
如果接纳 chunk
后,内部缓冲区小于创建流时配置的 highWaterMark
,则返回值为 true
。如果返回 false
,则应停止向流中写入数据的进一步尝试,直到发出 'drain'
事件。
当流未排空时,对 write()
的调用将缓冲 chunk
并返回 false。一旦所有当前缓冲的块都被排空(即被操作系统接受以进行传递),将会触发 'drain'
事件。一旦 write()
返回 false,在 'drain'
事件触发前,请勿写入更多的数据块。虽然在流未排空时调用 write()
是允许的,但 Node.js 会缓冲所有写入的块,直到达到最大内存使用量,此时它将无条件地中止。即使在中止之前,高内存使用也会导致垃圾回收器性能下降和高 RSS(常驻内存大小,即使内存不再需要,通常也不会释放回系统)。由于如果远程对等方不读取数据,TCP 套接字可能永远不会排空,因此向一个未排空的套接字写入数据可能导致可被远程利用的漏洞。
在流未排空时写入数据对于 Transform
流尤其成问题,因为 Transform
流默认是暂停的,直到它们被管道连接(pipe)或添加了 'data'
或 'readable'
事件处理程序。
如果要写入的数据可以按需生成或获取,建议将逻辑封装到 Readable
流中并使用 stream.pipe()
。但是,如果倾向于调用 write()
,则可以通过使用 'drain'
事件来遵循背压机制并避免内存问题。
function write(data, cb) {
if (!stream.write(data)) {
stream.once('drain', cb);
} else {
process.nextTick(cb);
}
}
// Wait for cb to be called before doing any other write.
write('hello', () => {
console.log('Write completed, do more writes now.');
});
处于对象模式(object mode)的 Writable
流将始终忽略 encoding
参数。
可读流(Readable streams)#
可读流是对数据消费来源的一种抽象。
Readable
流的示例包括:
所有 Readable
流都实现了 stream.Readable
类定义的接口。
两种读取模式#
Readable
流实际上以两种模式之一运行:流动模式(flowing)和暂停模式(paused)。这些模式与对象模式是分开的。一个 Readable
流可以处于对象模式或非对象模式,无论它是处于流动模式还是暂停模式。
-
在流动模式下,数据会自动从底层系统读取,并通过
EventEmitter
接口的事件尽快提供给应用程序。 -
在暂停模式下,必须显式调用
stream.read()
方法来从流中读取数据块。
所有 Readable
流都以暂停模式开始,但可以通过以下方式之一切换到流动模式:
- 添加一个
'data'
事件处理程序。 - 调用
stream.resume()
方法。 - 调用
stream.pipe()
方法将数据发送到Writable
流。
Readable
流可以通过以下方式之一切换回暂停模式:
- 如果没有管道目标(pipe destinations),则调用
stream.pause()
方法。 - 如果有管道目标,则移除所有管道目标。可以通过调用
stream.unpipe()
方法来移除多个管道目标。
需要记住的重要概念是,Readable
流在提供消费或忽略其数据的机制之前,不会生成数据。如果消费机制被禁用或移除,Readable
流将尝试停止生成数据。
出于向后兼容的原因,移除 'data'
事件处理程序不会自动暂停流。此外,如果存在管道目标,调用 stream.pause()
并不保证流在这些目标排空并请求更多数据后会保持暂停状态。
如果一个 Readable
流被切换到流动模式,并且没有可用的消费者来处理数据,那么这些数据将会丢失。例如,当调用 readable.resume()
方法而没有为 'data'
事件附加监听器时,或者当从流中移除 'data'
事件处理程序时,就会发生这种情况。
添加 'readable'
事件处理程序会自动使流停止流动,并且数据必须通过 readable.read()
来消费。如果移除了 'readable'
事件处理程序,并且存在 'data'
事件处理程序,那么流将再次开始流动。
三种状态#
Readable
流的“两种模式”操作是对 Readable
流实现内部发生的更复杂的内部状态管理的简化抽象。
具体来说,在任何给定时间点,每个 Readable
流都处于以下三种可能的状态之一:
readable.readableFlowing === null
readable.readableFlowing === false
readable.readableFlowing === true
当 readable.readableFlowing
为 null
时,没有提供消费流数据的机制。因此,流不会生成数据。在这种状态下,为 'data'
事件附加监听器、调用 readable.pipe()
方法或调用 readable.resume()
方法都会将 readable.readableFlowing
切换为 true
,导致 Readable
流在数据生成时开始主动触发事件。
调用 readable.pause()
、readable.unpipe()
或接收到背压(backpressure)将导致 readable.readableFlowing
被设置为 false
,暂时停止事件的流动,但不会停止数据的生成。在此状态下,为 'data'
事件附加监听器不会将 readable.readableFlowing
切换为 true
。
const { PassThrough, Writable } = require('node:stream');
const pass = new PassThrough();
const writable = new Writable();
pass.pipe(writable);
pass.unpipe(writable);
// readableFlowing is now false.
pass.on('data', (chunk) => { console.log(chunk.toString()); });
// readableFlowing is still false.
pass.write('ok'); // Will not emit 'data'.
pass.resume(); // Must be called to make stream emit 'data'.
// readableFlowing is now true.
当 readable.readableFlowing
为 false
时,数据可能会在流的内部缓冲区中累积。
选择一种 API 风格#
Readable
流的 API 经过多个 Node.js 版本的演变,提供了多种消费流数据的方法。总的来说,开发者应该选择一种消费数据的方法,并且永远不应使用多种方法来消费同一个流的数据。具体来说,混合使用 on('data')
、on('readable')
、pipe()
或异步迭代器可能导致不直观的行为。
类:stream.Readable
#
事件:'close'
#
当流及其任何底层资源(例如文件描述符)被关闭时,会发出 'close'
事件。该事件表明不会再发出更多事件,也不会发生进一步的计算。
如果 Readable
流创建时带有 emitClose
选项,它将总是触发 'close'
事件。
事件:'data'
#
chunk
<Buffer> | <string> | <any> 数据块。对于非对象模式的流,chunk
将是字符串或Buffer
。对于对象模式的流,chunk
可以是除null
之外的任何 JavaScript 值。
当流将一块数据的所有权移交给消费者时,会触发 'data'
事件。这可能发生在通过调用 readable.pipe()
、readable.resume()
或为 'data'
事件附加监听器回调函数将流切换到流动模式时。当调用 readable.read()
方法且有可用数据块返回时,也会触发 'data'
事件。
为一个未被显式暂停的流附加 'data'
事件监听器会将其切换到流动模式。数据将在可用时立即传递。
如果使用 readable.setEncoding()
方法为流指定了默认编码,则监听器回调函数将接收到字符串形式的数据块;否则,数据将作为 Buffer
传递。
const readable = getReadableStreamSomehow();
readable.on('data', (chunk) => {
console.log(`Received ${chunk.length} bytes of data.`);
});
事件:'end'
#
当流中没有更多数据可供消费时,会触发 'end'
事件。
除非数据被完全消费,否则 'end'
事件不会被触发。这可以通过将流切换到流动模式,或者重复调用 stream.read()
直到所有数据都被消费完来实现。
const readable = getReadableStreamSomehow();
readable.on('data', (chunk) => {
console.log(`Received ${chunk.length} bytes of data.`);
});
readable.on('end', () => {
console.log('There will be no more data.');
});
事件:'error'
#
- 类型: <Error>
'error'
事件可以由 Readable
实现随时触发。通常,这可能发生在底层流因内部故障而无法生成数据,或者当流实现尝试推送一个无效的数据块时。
监听器回调函数将接收到一个单独的 Error
对象。
事件:'pause'
#
当调用 stream.pause()
并且 readableFlowing
不为 false
时,会触发 'pause'
事件。
事件:'readable'
#
当有数据可从流中读取时,会触发 'readable'
事件,可读取的数据量最多达到配置的高水位线(state.highWaterMark
)。实际上,它表示流的缓冲区中有新的信息。如果此缓冲区中有可用数据,可以调用 stream.read()
来检索该数据。此外,当到达流的末尾时,也可能触发 'readable'
事件。
const readable = getReadableStreamSomehow();
readable.on('readable', function() {
// There is some data to read now.
let data;
while ((data = this.read()) !== null) {
console.log(data);
}
});
如果到达了流的末尾,调用 stream.read()
将返回 null
并触发 'end'
事件。如果从来没有任何数据可读,情况也是如此。例如,在下面的例子中,foo.txt
是一个空文件:
const fs = require('node:fs');
const rr = fs.createReadStream('foo.txt');
rr.on('readable', () => {
console.log(`readable: ${rr.read()}`);
});
rr.on('end', () => {
console.log('end');
});
运行此脚本的输出是:
$ node test.js
readable: null
end
在某些情况下,为 'readable'
事件附加监听器会导致一定量的数据被读入内部缓冲区。
总的来说,readable.pipe()
和 'data'
事件机制比 'readable'
事件更容易理解。然而,处理 'readable'
可能会带来更高的吞吐量。
如果同时使用 'readable'
和 'data'
,'readable'
在控制流方面具有优先权,即只有在调用 stream.read()
时才会触发 'data'
。readableFlowing
属性将变为 false
。如果在移除 'readable'
时存在 'data'
监听器,流将开始流动,即无需调用 .resume()
就会触发 'data'
事件。
事件:'resume'
#
当调用 stream.resume()
并且 readableFlowing
不为 true
时,会触发 'resume'
事件。
readable.destroy([error])
#
销毁流。可选择性地触发一个 'error'
事件,并触发一个 'close'
事件(除非 emitClose
设置为 false
)。此调用之后,可读流将释放任何内部资源,后续对 push()
的调用将被忽略。
一旦调用了 destroy()
,任何进一步的调用都将是空操作,并且除了来自 _destroy()
的错误外,不会再有其他错误作为 'error'
发出。
实现者不应覆盖此方法,而应实现 readable._destroy()
。
readable.isPaused()
#
- 返回:<boolean>
readable.isPaused()
方法返回 Readable
流的当前操作状态。这主要由 readable.pipe()
方法底层的机制使用。在大多数典型情况下,没有理由直接使用此方法。
const readable = new stream.Readable();
readable.isPaused(); // === false
readable.pause();
readable.isPaused(); // === true
readable.resume();
readable.isPaused(); // === false
readable.pause()
#
- 返回:<this>
readable.pause()
方法将导致处于流动模式的流停止触发 'data'
事件,从而退出流动模式。任何可用的数据将保留在内部缓冲区中。
const readable = getReadableStreamSomehow();
readable.on('data', (chunk) => {
console.log(`Received ${chunk.length} bytes of data.`);
readable.pause();
console.log('There will be no additional data for 1 second.');
setTimeout(() => {
console.log('Now data will start flowing again.');
readable.resume();
}, 1000);
});
如果存在 'readable'
事件监听器,readable.pause()
方法无效。
readable.pipe(destination[, options])
#
destination
<stream.Writable> 用于写入数据的目标options
<Object> 管道选项end
<boolean> 当读取器结束时,结束写入器。默认值:true
。
- 返回:<stream.Writable> 目标流,如果它是
Duplex
或Transform
流,则允许管道链
readable.pipe()
方法将一个 Writable
流附加到 readable
流,使其自动切换到流动模式,并将其所有数据推送到附加的 Writable
流。数据流将被自动管理,以确保目标 Writable
流不会被速度更快的 Readable
流淹没。
以下示例将 readable
流的所有数据通过管道传输到一个名为 file.txt
的文件中:
const fs = require('node:fs');
const readable = getReadableStreamSomehow();
const writable = fs.createWriteStream('file.txt');
// All the data from readable goes into 'file.txt'.
readable.pipe(writable);
可以将多个 Writable
流附加到一个 Readable
流。
readable.pipe()
方法返回对目标流的引用,从而可以建立管道流链:
const fs = require('node:fs');
const zlib = require('node:zlib');
const r = fs.createReadStream('file.txt');
const z = zlib.createGzip();
const w = fs.createWriteStream('file.txt.gz');
r.pipe(z).pipe(w);
默认情况下,当源 Readable
流触发 'end'
事件时,会在目标 Writable
流上调用 stream.end()
,从而使目标流不再可写。要禁用此默认行为,可以将 end
选项设置为 false
,这会使目标流保持打开状态:
reader.pipe(writer, { end: false });
reader.on('end', () => {
writer.end('Goodbye\n');
});
一个重要的注意事项是,如果 Readable
流在处理过程中触发了错误,Writable
目标不会自动关闭。如果发生错误,需要手动关闭每个流以防止内存泄漏。
process.stderr
和 process.stdout
这两个 Writable
流在 Node.js 进程退出之前永远不会关闭,无论指定的选项如何。
readable.read([size])
#
readable.read()
方法从内部缓冲区读取数据并返回它。如果没有可读数据,则返回 null
。默认情况下,数据作为 Buffer
对象返回,除非使用 readable.setEncoding()
方法指定了编码,或者流处于对象模式。
可选的 size
参数指定要读取的特定字节数。如果没有 size
字节的数据可读,将返回 null
,除非流已经结束,在这种情况下,将返回内部缓冲区中剩余的所有数据。
如果未指定 size
参数,将返回内部缓冲区中包含的所有数据。
size
参数必须小于或等于 1 GiB。
readable.read()
方法只应在处于暂停模式的 Readable
流上调用。在流动模式下,readable.read()
会被自动调用,直到内部缓冲区完全排空。
const readable = getReadableStreamSomehow();
// 'readable' may be triggered multiple times as data is buffered in
readable.on('readable', () => {
let chunk;
console.log('Stream is readable (new data received in buffer)');
// Use a loop to make sure we read all currently available data
while (null !== (chunk = readable.read())) {
console.log(`Read ${chunk.length} bytes of data...`);
}
});
// 'end' will be triggered once when there is no more data available
readable.on('end', () => {
console.log('Reached end of stream.');
});
每次调用 readable.read()
都会返回一个数据块或 null
,表示此时没有更多数据可读。这些数据块不会自动连接。由于单次 read()
调用不会返回所有数据,可能需要使用 while 循环来连续读取数据块,直到检索到所有数据。在读取大文件时,.read()
可能会暂时返回 null
,表示它已消耗完所有缓冲内容,但可能还有更多数据待缓冲。在这种情况下,一旦缓冲区中有更多数据,就会触发一个新的 'readable'
事件,而 'end'
事件则表示数据传输结束。
因此,要从一个 readable
流中读取文件的全部内容,需要在多个 'readable'
事件中收集数据块:
const chunks = [];
readable.on('readable', () => {
let chunk;
while (null !== (chunk = readable.read())) {
chunks.push(chunk);
}
});
readable.on('end', () => {
const content = chunks.join('');
});
处于对象模式的 Readable
流在调用 readable.read(size)
时将始终返回单个项目,无论 size
参数的值是多少。
如果 readable.read()
方法返回一个数据块,那么也会触发一个 'data'
事件。
在 'end'
事件触发后调用 stream.read([size])
将返回 null
。不会引发运行时错误。
readable.readableEncoding
#
获取给定 Readable
流的 encoding
属性的 getter。encoding
属性可以使用 readable.setEncoding()
方法设置。
readable.resume()
#
- 返回:<this>
readable.resume()
方法使一个被明确暂停的 Readable
流恢复触发 'data'
事件,将流切换到流动模式。
readable.resume()
方法可用于完全消费流中的数据,而无需实际处理任何数据:
getReadableStreamSomehow()
.resume()
.on('end', () => {
console.log('Reached the end, but did not read anything.');
});
如果存在 'readable'
事件监听器,readable.resume()
方法无效。
readable.setEncoding(encoding)
#
readable.setEncoding()
方法为从 Readable
流读取的数据设置字符编码。
默认情况下,没有分配编码,流数据将作为 Buffer
对象返回。设置编码会使流数据以指定编码的字符串形式返回,而不是作为 Buffer
对象。例如,调用 readable.setEncoding('utf8')
会使输出数据被解释为 UTF-8 数据,并以字符串形式传递。调用 readable.setEncoding('hex')
会使数据被编码为十六进制字符串格式。
Readable
流将正确处理通过流传递的多字节字符,这些字符如果仅作为 Buffer
对象从流中拉取,可能会被错误解码。
const readable = getReadableStreamSomehow();
readable.setEncoding('utf8');
readable.on('data', (chunk) => {
assert.equal(typeof chunk, 'string');
console.log('Got %d characters of string data:', chunk.length);
});
readable.unpipe([destination])
#
destination
<stream.Writable> 可选的特定流以取消管道连接- 返回:<this>
readable.unpipe()
方法分离一个先前使用 stream.pipe()
方法附加的 Writable
流。
如果未指定 destination
,则所有管道都将被分离。
如果指定了 destination
,但没有为它设置管道,则该方法不执行任何操作。
const fs = require('node:fs');
const readable = getReadableStreamSomehow();
const writable = fs.createWriteStream('file.txt');
// All the data from readable goes into 'file.txt',
// but only for the first second.
readable.pipe(writable);
setTimeout(() => {
console.log('Stop writing to file.txt.');
readable.unpipe(writable);
console.log('Manually close the file stream.');
writable.end();
}, 1000);
readable.unshift(chunk[, encoding])
#
chunk
<Buffer> | <TypedArray> | <DataView> | <string> | <null> | <any> 要插回到读取队列开头的数据块。对于非对象模式的流,chunk
必须是 <string>、<Buffer>、<TypedArray>、<DataView> 或null
。对于对象模式的流,chunk
可以是任何 JavaScript 值。encoding
<string> 字符串块的编码。必须是有效的Buffer
编码,如'utf8'
或'ascii'
。
将 chunk
作为 null
传递表示流的结束(EOF),其行为与 readable.push(null)
相同,之后不能再写入更多数据。EOF 信号被放在缓冲区的末尾,任何已缓冲的数据仍将被刷新。
readable.unshift()
方法将一块数据推回到内部缓冲区。这在某些情况下很有用,例如当一个流被需要“反消费”(un-consume)一些它已从源中乐观拉取的数据的代码消费时,以便这些数据可以传递给其他方。
在 'end'
事件触发后,不能调用 stream.unshift(chunk)
方法,否则将抛出运行时错误。
使用 stream.unshift()
的开发者通常应考虑切换到使用 Transform
流。有关更多信息,请参见流实现者 API部分。
// Pull off a header delimited by \n\n.
// Use unshift() if we get too much.
// Call the callback with (error, header, stream).
const { StringDecoder } = require('node:string_decoder');
function parseHeader(stream, callback) {
stream.on('error', callback);
stream.on('readable', onReadable);
const decoder = new StringDecoder('utf8');
let header = '';
function onReadable() {
let chunk;
while (null !== (chunk = stream.read())) {
const str = decoder.write(chunk);
if (str.includes('\n\n')) {
// Found the header boundary.
const split = str.split(/\n\n/);
header += split.shift();
const remaining = split.join('\n\n');
const buf = Buffer.from(remaining, 'utf8');
stream.removeListener('error', callback);
// Remove the 'readable' listener before unshifting.
stream.removeListener('readable', onReadable);
if (buf.length)
stream.unshift(buf);
// Now the body of the message can be read from the stream.
callback(null, header, stream);
return;
}
// Still reading the header.
header += str;
}
}
}
与 stream.push(chunk)
不同,stream.unshift(chunk)
不会通过重置流的内部读取状态来结束读取过程。如果在读取期间(即在自定义流的 stream._read()
实现内部)调用 readable.unshift()
,可能会导致意外结果。在调用 readable.unshift()
之后立即调用 stream.push('')
将适当地重置读取状态,但最好的做法是简单地避免在执行读取过程中调用 readable.unshift()
。
readable.wrap(stream)
#
在 Node.js 0.10 之前,流并未实现当前定义的整个 node:stream
模块 API。(有关更多信息,请参见与旧版 Node.js 的兼容性。)
当使用一个会触发 'data'
事件并且其 stream.pause()
方法仅为建议性的旧 Node.js 库时,可以使用 readable.wrap()
方法创建一个使用旧流作为其数据源的 Readable
流。
很少需要使用 readable.wrap()
,但提供此方法是为了方便与旧的 Node.js 应用程序和库进行交互。
const { OldReader } = require('./old-api-module.js');
const { Readable } = require('node:stream');
const oreader = new OldReader();
const myReader = new Readable().wrap(oreader);
myReader.on('readable', () => {
myReader.read(); // etc.
});
readable[Symbol.asyncIterator]()
#
- 返回:<AsyncIterator> 用于完全消费流。
const fs = require('node:fs');
async function print(readable) {
readable.setEncoding('utf8');
let data = '';
for await (const chunk of readable) {
data += chunk;
}
console.log(data);
}
print(fs.createReadStream('file')).catch(console.error);
如果循环以 break
、return
或 throw
终止,流将被销毁。换句话说,迭代一个流将完全消费它。流将以等于 highWaterMark
选项大小的块进行读取。在上面的代码示例中,如果文件的数据小于 64 KiB,数据将位于单个块中,因为没有向 fs.createReadStream()
提供 highWaterMark
选项。
readable[Symbol.asyncDispose]()
#
使用 AbortError
调用 readable.destroy()
并返回一个在流完成时履行的 promise。
readable.compose(stream[, options])
#
stream
<Stream> | <Iterable> | <AsyncIterable> | <Function>options
<Object>signal
<AbortSignal> 允许在信号中止时销毁流。
- 返回: <Duplex> 一个与
stream
流组合的流。
import { Readable } from 'node:stream';
async function* splitToWords(source) {
for await (const chunk of source) {
const words = String(chunk).split(' ');
for (const word of words) {
yield word;
}
}
}
const wordsStream = Readable.from(['this is', 'compose as operator']).compose(splitToWords);
const words = await wordsStream.toArray();
console.log(words); // prints ['this', 'is', 'compose', 'as', 'operator']
参见 stream.compose
了解更多信息。
readable.iterator([options])
#
options
<Object>destroyOnReturn
<boolean> 当设置为false
时,在异步迭代器上调用return
,或使用break
、return
或throw
退出for await...of
迭代,将不会销毁流。默认值:true
。
- 返回: <AsyncIterator> 用于消费流。
此方法创建的迭代器为用户提供了一个选项:如果 for await...of
循环因 return
、break
或 throw
而退出,可以取消流的销毁;或者如果流在迭代期间发出错误,迭代器应销毁流。
const { Readable } = require('node:stream');
async function printIterator(readable) {
for await (const chunk of readable.iterator({ destroyOnReturn: false })) {
console.log(chunk); // 1
break;
}
console.log(readable.destroyed); // false
for await (const chunk of readable.iterator({ destroyOnReturn: false })) {
console.log(chunk); // Will print 2 and then 3
}
console.log(readable.destroyed); // True, stream was totally consumed
}
async function printSymbolAsyncIterator(readable) {
for await (const chunk of readable) {
console.log(chunk); // 1
break;
}
console.log(readable.destroyed); // true
}
async function showBoth() {
await printIterator(Readable.from([1, 2, 3]));
await printSymbolAsyncIterator(Readable.from([1, 2, 3]));
}
showBoth();
readable.map(fn[, options])
#
fn
<Function> | <AsyncFunction> 一个用于映射流中每个数据块的函数。data
<any> 来自流的一个数据块。options
<Object>signal
<AbortSignal> 如果流被销毁,该信号会中止,从而允许尽早中止fn
调用。
options
<Object>concurrency
<number> 在流上一次性并发调用fn
的最大次数。默认值:1
。highWaterMark
<number> 在等待用户消费映射后的项目时,可以缓冲的项目数量。默认值:concurrency * 2 - 1
。signal
<AbortSignal> 允许在信号中止时销毁流。
- 返回: <Readable> 一个使用函数
fn
映射过的流。
此方法允许对流进行映射。对于流中的每个数据块,都会调用 fn
函数。如果 fn
函数返回一个 promise,那么在将结果传递给结果流之前,会 await
这个 promise。
import { Readable } from 'node:stream';
import { Resolver } from 'node:dns/promises';
// With a synchronous mapper.
for await (const chunk of Readable.from([1, 2, 3, 4]).map((x) => x * 2)) {
console.log(chunk); // 2, 4, 6, 8
}
// With an asynchronous mapper, making at most 2 queries at a time.
const resolver = new Resolver();
const dnsResults = Readable.from([
'nodejs.org',
'openjsf.org',
'www.linuxfoundation.org',
]).map((domain) => resolver.resolve4(domain), { concurrency: 2 });
for await (const result of dnsResults) {
console.log(result); // Logs the DNS result of resolver.resolve4.
}
readable.filter(fn[, options])
#
fn
<Function> | <AsyncFunction> 一个用于从流中过滤数据块的函数。data
<any> 来自流的一个数据块。options
<Object>signal
<AbortSignal> 如果流被销毁,该信号会中止,从而允许尽早中止fn
调用。
options
<Object>concurrency
<number> 在流上一次性并发调用fn
的最大次数。默认值:1
。highWaterMark
<number> 在等待用户消费过滤后的项目时,可以缓冲的项目数量。默认值:concurrency * 2 - 1
。signal
<AbortSignal> 允许在信号中止时销毁流。
- 返回: <Readable> 一个使用谓词
fn
过滤过的流。
此方法允许过滤流。对于流中的每个数据块,都会调用 fn
函数,如果它返回一个真值(truthy value),该数据块将被传递到结果流。如果 fn
函数返回一个 promise,那么会 await
这个 promise。
import { Readable } from 'node:stream';
import { Resolver } from 'node:dns/promises';
// With a synchronous predicate.
for await (const chunk of Readable.from([1, 2, 3, 4]).filter((x) => x > 2)) {
console.log(chunk); // 3, 4
}
// With an asynchronous predicate, making at most 2 queries at a time.
const resolver = new Resolver();
const dnsResults = Readable.from([
'nodejs.org',
'openjsf.org',
'www.linuxfoundation.org',
]).filter(async (domain) => {
const { address } = await resolver.resolve4(domain, { ttl: true });
return address.ttl > 60;
}, { concurrency: 2 });
for await (const result of dnsResults) {
// Logs domains with more than 60 seconds on the resolved dns record.
console.log(result);
}
readable.forEach(fn[, options])
#
fn
<Function> | <AsyncFunction> 一个在流的每个数据块上调用的函数。data
<any> 来自流的一个数据块。options
<Object>signal
<AbortSignal> 如果流被销毁,该信号会中止,从而允许尽早中止fn
调用。
options
<Object>concurrency
<number> 在流上一次性并发调用fn
的最大次数。默认值:1
。signal
<AbortSignal> 允许在信号中止时销毁流。
- 返回: <Promise> 一个在流完成时履行的 promise。
此方法允许迭代一个流。对于流中的每个数据块,都会调用 fn
函数。如果 fn
函数返回一个 promise,那么会 await
这个 promise。
此方法与 for await...of
循环的不同之处在于,它可以选择性地并发处理数据块。此外,forEach
迭代只能通过传递一个 signal
选项并中止相关的 AbortController
来停止,而 for await...of
可以用 break
或 return
来停止。无论哪种情况,流都将被销毁。
此方法与监听 'data'
事件的不同之处在于,它在底层机制中使用 readable
事件,并且可以限制并发 fn
调用的数量。
import { Readable } from 'node:stream';
import { Resolver } from 'node:dns/promises';
// With a synchronous predicate.
for await (const chunk of Readable.from([1, 2, 3, 4]).filter((x) => x > 2)) {
console.log(chunk); // 3, 4
}
// With an asynchronous predicate, making at most 2 queries at a time.
const resolver = new Resolver();
const dnsResults = Readable.from([
'nodejs.org',
'openjsf.org',
'www.linuxfoundation.org',
]).map(async (domain) => {
const { address } = await resolver.resolve4(domain, { ttl: true });
return address;
}, { concurrency: 2 });
await dnsResults.forEach((result) => {
// Logs result, similar to `for await (const result of dnsResults)`
console.log(result);
});
console.log('done'); // Stream has finished
readable.toArray([options])
#
options
<Object>signal
<AbortSignal> 允许在信号中止时取消 toArray 操作。
- 返回: <Promise> 一个包含流内容的数组的 promise。
此方法可以方便地获取流的内容。
由于此方法会将整个流读入内存,它抵消了流的优势。它旨在用于互操作性和便利性,而不是作为消费流的主要方式。
import { Readable } from 'node:stream';
import { Resolver } from 'node:dns/promises';
await Readable.from([1, 2, 3, 4]).toArray(); // [1, 2, 3, 4]
// Make dns queries concurrently using .map and collect
// the results into an array using toArray
const dnsResults = await Readable.from([
'nodejs.org',
'openjsf.org',
'www.linuxfoundation.org',
]).map(async (domain) => {
const { address } = await resolver.resolve4(domain, { ttl: true });
return address;
}, { concurrency: 2 }).toArray();
readable.some(fn[, options])
#
fn
<Function> | <AsyncFunction> 一个在流的每个数据块上调用的函数。data
<any> 来自流的一个数据块。options
<Object>signal
<AbortSignal> 如果流被销毁,该信号会中止,从而允许尽早中止fn
调用。
options
<Object>concurrency
<number> 在流上一次性并发调用fn
的最大次数。默认值:1
。signal
<AbortSignal> 允许在信号中止时销毁流。
- 返回: <Promise> 如果
fn
对至少一个数据块返回了真值,则 promise 的评估值为true
。
此方法类似于 Array.prototype.some
,它对流中的每个数据块调用 fn
,直到等待的返回值为 true
(或任何真值)。一旦对某个数据块的 fn
调用等待的返回值为真值,流就会被销毁,并且 promise 会以 true
履行。如果所有对数据块的 fn
调用都未返回真值,则 promise 会以 false
履行。
import { Readable } from 'node:stream';
import { stat } from 'node:fs/promises';
// With a synchronous predicate.
await Readable.from([1, 2, 3, 4]).some((x) => x > 2); // true
await Readable.from([1, 2, 3, 4]).some((x) => x < 0); // false
// With an asynchronous predicate, making at most 2 file checks at a time.
const anyBigFile = await Readable.from([
'file1',
'file2',
'file3',
]).some(async (fileName) => {
const stats = await stat(fileName);
return stats.size > 1024 * 1024;
}, { concurrency: 2 });
console.log(anyBigFile); // `true` if any file in the list is bigger than 1MB
console.log('done'); // Stream has finished
readable.find(fn[, options])
#
fn
<Function> | <AsyncFunction> 一个在流的每个数据块上调用的函数。data
<any> 来自流的一个数据块。options
<Object>signal
<AbortSignal> 如果流被销毁,该信号会中止,从而允许尽早中止fn
调用。
options
<Object>concurrency
<number> 在流上一次性并发调用fn
的最大次数。默认值:1
。signal
<AbortSignal> 允许在信号中止时销毁流。
- 返回: <Promise> 一个 promise,其评估值为
fn
评估为真值的第一个数据块,如果未找到任何元素,则为undefined
。
此方法类似于 Array.prototype.find
,它对流中的每个数据块调用 fn
以查找一个使 fn
返回真值的数据块。一旦某个 fn
调用等待的返回值为真值,流就会被销毁,并且 promise 会以该数据块履行。如果所有对数据块的 fn
调用都返回假值(falsy value),则 promise 会以 undefined
履行。
import { Readable } from 'node:stream';
import { stat } from 'node:fs/promises';
// With a synchronous predicate.
await Readable.from([1, 2, 3, 4]).find((x) => x > 2); // 3
await Readable.from([1, 2, 3, 4]).find((x) => x > 0); // 1
await Readable.from([1, 2, 3, 4]).find((x) => x > 10); // undefined
// With an asynchronous predicate, making at most 2 file checks at a time.
const foundBigFile = await Readable.from([
'file1',
'file2',
'file3',
]).find(async (fileName) => {
const stats = await stat(fileName);
return stats.size > 1024 * 1024;
}, { concurrency: 2 });
console.log(foundBigFile); // File name of large file, if any file in the list is bigger than 1MB
console.log('done'); // Stream has finished
readable.every(fn[, options])
#
fn
<Function> | <AsyncFunction> 一个在流的每个数据块上调用的函数。data
<any> 来自流的一个数据块。options
<Object>signal
<AbortSignal> 如果流被销毁,该信号会中止,从而允许尽早中止fn
调用。
options
<Object>concurrency
<number> 在流上一次性并发调用fn
的最大次数。默认值:1
。signal
<AbortSignal> 允许在信号中止时销毁流。
- 返回: <Promise> 如果
fn
对所有数据块都返回了真值,则 promise 的评估值为true
。
此方法类似于 Array.prototype.every
,它对流中的每个数据块调用 fn
,以检查所有等待的返回值是否都为真值。一旦对某个数据块的 fn
调用等待的返回值为假值,流就会被销毁,并且 promise 会以 false
履行。如果所有对数据块的 fn
调用都返回真值,则 promise 会以 true
履行。
import { Readable } from 'node:stream';
import { stat } from 'node:fs/promises';
// With a synchronous predicate.
await Readable.from([1, 2, 3, 4]).every((x) => x > 2); // false
await Readable.from([1, 2, 3, 4]).every((x) => x > 0); // true
// With an asynchronous predicate, making at most 2 file checks at a time.
const allBigFiles = await Readable.from([
'file1',
'file2',
'file3',
]).every(async (fileName) => {
const stats = await stat(fileName);
return stats.size > 1024 * 1024;
}, { concurrency: 2 });
// `true` if all files in the list are bigger than 1MiB
console.log(allBigFiles);
console.log('done'); // Stream has finished
readable.flatMap(fn[, options])
#
fn
<Function> | <AsyncGeneratorFunction> | <AsyncFunction> 一个用于映射流中每个数据块的函数。data
<any> 来自流的一个数据块。options
<Object>signal
<AbortSignal> 如果流被销毁,该信号会中止,从而允许尽早中止fn
调用。
options
<Object>concurrency
<number> 在流上一次性并发调用fn
的最大次数。默认值:1
。signal
<AbortSignal> 允许在信号中止时销毁流。
- 返回: <Readable> 一个使用函数
fn
进行扁平化映射的流。
此方法通过将给定的回调应用于流的每个数据块然后将结果扁平化来返回一个新流。
可以从 fn
返回一个流或其他可迭代或异步可迭代对象,结果流将被合并(扁平化)到返回的流中。
import { Readable } from 'node:stream';
import { createReadStream } from 'node:fs';
// With a synchronous mapper.
for await (const chunk of Readable.from([1, 2, 3, 4]).flatMap((x) => [x, x])) {
console.log(chunk); // 1, 1, 2, 2, 3, 3, 4, 4
}
// With an asynchronous mapper, combine the contents of 4 files
const concatResult = Readable.from([
'./1.mjs',
'./2.mjs',
'./3.mjs',
'./4.mjs',
]).flatMap((fileName) => createReadStream(fileName));
for await (const result of concatResult) {
// This will contain the contents (all chunks) of all 4 files
console.log(result);
}
readable.drop(limit[, options])
#
limit
<number> 要从可读流中丢弃的数据块数量。options
<Object>signal
<AbortSignal> 允许在信号中止时销毁流。
- 返回: <Readable> 一个丢弃了
limit
个数据块的流。
此方法返回一个丢弃了前 limit
个数据块的新流。
import { Readable } from 'node:stream';
await Readable.from([1, 2, 3, 4]).drop(2).toArray(); // [3, 4]
readable.take(limit[, options])
#
limit
<number> 要从可读流中获取的数据块数量。options
<Object>signal
<AbortSignal> 允许在信号中止时销毁流。
- 返回: <Readable> 一个包含
limit
个数据块的流。
此方法返回一个包含前 limit
个数据块的新流。
import { Readable } from 'node:stream';
await Readable.from([1, 2, 3, 4]).take(2).toArray(); // [1, 2]
readable.reduce(fn[, initial[, options]])
#
fn
<Function> | <AsyncFunction> 一个在流的每个数据块上调用的归纳函数。previous
<any> 上一次调用fn
获得的值,或者如果指定了initial
值则是该值,否则是流的第一个数据块。data
<any> 来自流的一个数据块。options
<Object>signal
<AbortSignal> 如果流被销毁,该信号会中止,从而允许尽早中止fn
调用。
initial
<any> 在归纳中使用的初始值。options
<Object>signal
<AbortSignal> 允许在信号中止时销毁流。
- 返回: <Promise> 一个归纳最终值的 promise。
此方法按顺序对流的每个数据块调用 fn
,并将上一个元素计算的结果传递给它。它返回一个归纳最终值的 promise。
如果没有提供 initial
值,则使用流的第一个数据块作为初始值。如果流为空,则 promise 会被拒绝,并带有一个具有 ERR_INVALID_ARGS
代码属性的 TypeError
。
import { Readable } from 'node:stream';
import { readdir, stat } from 'node:fs/promises';
import { join } from 'node:path';
const directoryPath = './src';
const filesInDir = await readdir(directoryPath);
const folderSize = await Readable.from(filesInDir)
.reduce(async (totalSize, file) => {
const { size } = await stat(join(directoryPath, file));
return totalSize + size;
}, 0);
console.log(folderSize);
归纳函数逐个元素地迭代流,这意味着没有 concurrency
参数或并行性。要并发执行 reduce
,你可以将异步函数提取到 readable.map
方法中。
import { Readable } from 'node:stream';
import { readdir, stat } from 'node:fs/promises';
import { join } from 'node:path';
const directoryPath = './src';
const filesInDir = await readdir(directoryPath);
const folderSize = await Readable.from(filesInDir)
.map((file) => stat(join(directoryPath, file)), { concurrency: 2 })
.reduce((totalSize, { size }) => totalSize + size, 0);
console.log(folderSize);
双工流和转换流#
类: stream.Transform
#
转换流是 Duplex
流,其输出与输入以某种方式相关。与所有 Duplex
流一样,Transform
流同时实现了 Readable
和 Writable
接口。
Transform
流的示例包括
transform.destroy([error])
#
销毁流,并可选择性地发出一个 'error'
事件。此调用后,转换流将释放任何内部资源。实现者不应覆盖此方法,而应实现 readable._destroy()
。Transform
的 _destroy()
的默认实现也会发出 'close'
,除非 emitClose
设置为 false。
一旦调用了 destroy()
,任何进一步的调用都将是空操作,并且除了来自 _destroy()
的错误外,不会再有其他错误作为 'error'
发出。
stream.finished(stream[, options], callback)
#
stream
<Stream> | <ReadableStream> | <WritableStream> 一个可读和/或可写的流/网络流。options
<Object>error
<boolean> 如果设置为false
,则对emit('error', err)
的调用不被视为完成。默认值:true
。readable
<boolean> 当设置为false
时,即使流可能仍然可读,当流结束时也会调用回调。默认值:true
。writable
<boolean> 当设置为false
时,即使流可能仍然可写,当流结束时也会调用回调。默认值:true
。signal
<AbortSignal> 允许中止等待流完成。如果信号被中止,底层的流将不会被中止。回调将带有一个AbortError
被调用。此函数添加的所有已注册监听器也将被移除。
callback
<Function> 一个回调函数,它接受一个可选的错误参数。- 返回: <Function> 一个清理函数,用于移除所有已注册的监听器。
一个用于在流不再可读、可写或遇到错误或过早关闭事件时获得通知的函数。
const { finished } = require('node:stream');
const fs = require('node:fs');
const rs = fs.createReadStream('archive.tar');
finished(rs, (err) => {
if (err) {
console.error('Stream failed.', err);
} else {
console.log('Stream is done reading.');
}
});
rs.resume(); // Drain the stream.
在错误处理场景中特别有用,例如流被过早销毁(如中止的 HTTP 请求),并且不会发出 'end'
或 'finish'
。
finished
API 提供了 promise 版本。
在调用 callback
之后,stream.finished()
会留下悬挂的事件监听器(特别是 'error'
、'end'
、'finish'
和 'close'
)。这样做的原因是为了防止意外的 'error'
事件(由于不正确的流实现)导致意外的崩溃。如果不需要这种行为,则需要在回调中调用返回的清理函数。
const cleanup = finished(rs, (err) => {
cleanup();
// ...
});
stream.pipeline(source[, ...transforms], destination, callback)
#
stream.pipeline(streams, callback)
#
streams
<Stream[]> | <Iterable[]> | <AsyncIterable[]> | <Function[]> | <ReadableStream[]> | <WritableStream[]> | <TransformStream[]>source
<Stream> | <Iterable> | <AsyncIterable> | <Function> | <ReadableStream>- 返回: <Iterable> | <AsyncIterable>
...transforms
<Stream> | <Function> | <TransformStream>source
<AsyncIterable>- 返回: <AsyncIterable>
destination
<Stream> | <Function> | <WritableStream>source
<AsyncIterable>- 返回: <AsyncIterable> | <Promise>
callback
<Function> 在管道完全完成后调用。err
<Error>val
由destination
返回的Promise
的解析值。
- 返回: <Stream>
一个模块方法,用于在流和生成器之间进行管道传输,转发错误并正确清理,并在管道完成时提供回调。
const { pipeline } = require('node:stream');
const fs = require('node:fs');
const zlib = require('node:zlib');
// Use the pipeline API to easily pipe a series of streams
// together and get notified when the pipeline is fully done.
// A pipeline to gzip a potentially huge tar file efficiently:
pipeline(
fs.createReadStream('archive.tar'),
zlib.createGzip(),
fs.createWriteStream('archive.tar.gz'),
(err) => {
if (err) {
console.error('Pipeline failed.', err);
} else {
console.log('Pipeline succeeded.');
}
},
);
pipeline
API 提供了 promise 版本。
stream.pipeline()
会在所有流上调用 stream.destroy(err)
,除了
- 已经发出
'end'
或'close'
的Readable
流。 - 已经发出
'finish'
或'close'
的Writable
流。
在调用 callback
后,stream.pipeline()
会在流上留下悬挂的事件监听器。在失败后重用流的情况下,这可能导致事件监听器泄漏和错误被吞噬。如果最后一个流是可读的,悬挂的事件监听器将被移除,以便之后可以消费最后一个流。
当发生错误时,stream.pipeline()
会关闭所有流。将 IncomingRequest
与 pipeline
一起使用可能会导致意外行为,因为它会在不发送预期响应的情况下销毁套接字。请参见下面的示例。
const fs = require('node:fs');
const http = require('node:http');
const { pipeline } = require('node:stream');
const server = http.createServer((req, res) => {
const fileStream = fs.createReadStream('./fileNotExist.txt');
pipeline(fileStream, res, (err) => {
if (err) {
console.log(err); // No such file
// this message can't be sent once `pipeline` already destroyed the socket
return res.end('error!!!');
}
});
});
stream.compose(...streams)
#
stream.compose
是实验性的。streams
<Stream[]> | <Iterable[]> | <AsyncIterable[]> | <Function[]> | <ReadableStream[]> | <WritableStream[]> | <TransformStream[]> | <Duplex[]> | <Function>- 返回: <stream.Duplex>
将两个或多个流组合成一个 Duplex
流,该流写入第一个流并从最后一个流读取。每个提供的流都通过 stream.pipeline
管道连接到下一个流。如果任何一个流出错,则所有流都会被销毁,包括外部的 Duplex
流。
因为 stream.compose
返回一个新流,这个新流本身可以(也应该)被管道连接到其他流,所以它支持组合。相比之下,当将流传递给 stream.pipeline
时,通常第一个流是可读流,最后一个是可写流,形成一个闭合回路。
如果传递一个 Function
,它必须是一个工厂方法,接受一个 source
Iterable
。
import { compose, Transform } from 'node:stream';
const removeSpaces = new Transform({
transform(chunk, encoding, callback) {
callback(null, String(chunk).replace(' ', ''));
},
});
async function* toUpper(source) {
for await (const chunk of source) {
yield String(chunk).toUpperCase();
}
}
let res = '';
for await (const buf of compose(removeSpaces, toUpper).end('hello world')) {
res += buf;
}
console.log(res); // prints 'HELLOWORLD'
stream.compose
可用于将异步可迭代对象、生成器和函数转换为流。
AsyncIterable
转换为可读的Duplex
。不能 yieldnull
。AsyncGeneratorFunction
转换为可读/可写的转换Duplex
。必须接受一个源AsyncIterable
作为第一个参数。不能 yieldnull
。AsyncFunction
转换为可写的Duplex
。必须返回null
或undefined
。
import { compose } from 'node:stream';
import { finished } from 'node:stream/promises';
// Convert AsyncIterable into readable Duplex.
const s1 = compose(async function*() {
yield 'Hello';
yield 'World';
}());
// Convert AsyncGenerator into transform Duplex.
const s2 = compose(async function*(source) {
for await (const chunk of source) {
yield String(chunk).toUpperCase();
}
});
let res = '';
// Convert AsyncFunction into writable Duplex.
const s3 = compose(async function(source) {
for await (const chunk of source) {
res += chunk;
}
});
await finished(compose(s1, s2, s3));
console.log(res); // prints 'HELLOWORLD'
参见 readable.compose(stream)
以了解作为操作符的 stream.compose
。
stream.isErrored(stream)
#
stream
<Readable> | <Writable> | <Duplex> | <WritableStream> | <ReadableStream>- 返回:<boolean>
返回流是否遇到了错误。
stream.isReadable(stream)
#
stream
<Readable> | <Duplex> | <ReadableStream>- 返回: <boolean> | <null> - 仅当
stream
不是有效的Readable
、Duplex
或ReadableStream
时才返回null
。
返回流是否可读。
stream.isWritable(stream)
#
stream
<Writable> | <Duplex> | <WritableStream>- 返回: <boolean> | <null> - 仅当
stream
不是有效的Writable
、Duplex
或WritableStream
时才返回null
。
返回流是否可写。
stream.Readable.from(iterable[, options])
#
iterable
<Iterable> 实现了Symbol.asyncIterator
或Symbol.iterator
可迭代协议的对象。如果传递了 null 值,则会发出 'error' 事件。options
<Object> 提供给new stream.Readable([options])
的选项。默认情况下,Readable.from()
会将options.objectMode
设置为true
,除非通过将options.objectMode
设置为false
来明确选择退出。- 返回: <stream.Readable>
一个用于从迭代器创建可读流的工具方法。
const { Readable } = require('node:stream');
async function * generate() {
yield 'hello';
yield 'streams';
}
const readable = Readable.from(generate());
readable.on('data', (chunk) => {
console.log(chunk);
});
出于性能原因,调用 Readable.from(string)
或 Readable.from(buffer)
不会对字符串或缓冲区进行迭代以匹配其他流的语义。
如果将包含 promise 的 Iterable
对象作为参数传递,可能会导致未处理的拒绝(unhandled rejection)。
const { Readable } = require('node:stream');
Readable.from([
new Promise((resolve) => setTimeout(resolve('1'), 1500)),
new Promise((_, reject) => setTimeout(reject(new Error('2')), 1000)), // Unhandled rejection
]);
stream.Readable.fromWeb(readableStream[, options])
#
readableStream
<ReadableStream>options
<Object>encoding
<string>highWaterMark
<number>objectMode
<boolean>signal
<AbortSignal>
- 返回: <stream.Readable>
stream.Readable.isDisturbed(stream)
#
stream
<stream.Readable> | <ReadableStream>- 返回:
boolean
返回流是否已被读取或取消。
stream.Readable.toWeb(streamReadable[, options])
#
streamReadable
<stream.Readable>options
<Object>strategy
<Object>highWaterMark
<number> 在从给定的stream.Readable
读取时应用背压之前,创建的ReadableStream
的最大内部队列大小。如果未提供值,则将从给定的stream.Readable
中获取。size
<Function> 一个计算给定数据块大小的函数。如果未提供值,则所有数据块的大小将为1
。
- 返回:<ReadableStream>
stream.Writable.fromWeb(writableStream[, options])
#
writableStream
<WritableStream>options
<Object>decodeStrings
<boolean>highWaterMark
<number>objectMode
<boolean>signal
<AbortSignal>
- 返回: <stream.Writable>
stream.Writable.toWeb(streamWritable)
#
streamWritable
<stream.Writable>- 返回: <WritableStream>
stream.Duplex.from(src)
#
src
<Stream> | <Blob> | <ArrayBuffer> | <string> | <Iterable> | <AsyncIterable> | <AsyncGeneratorFunction> | <AsyncFunction> | <Promise> | <Object> | <ReadableStream> | <WritableStream>
一个用于创建双工流的实用方法。
Stream
将可写流转换为可写的Duplex
,将可读流转换为Duplex
。Blob
转换为可读的Duplex
。string
转换为可读的Duplex
。ArrayBuffer
转换为可读的Duplex
。AsyncIterable
转换为可读的Duplex
。不能 yieldnull
。AsyncGeneratorFunction
转换为可读/可写的转换Duplex
。必须接受一个源AsyncIterable
作为第一个参数。不能 yieldnull
。AsyncFunction
转换为可写的Duplex
。必须返回null
或undefined
Object ({ writable, readable })
将readable
和writable
转换为Stream
,然后将它们组合成一个Duplex
,该Duplex
将写入writable
并从readable
读取。Promise
转换为可读的Duplex
。值null
被忽略。ReadableStream
转换为可读的Duplex
。WritableStream
转换为可写的Duplex
。- 返回: <stream.Duplex>
如果将包含 promise 的 Iterable
对象作为参数传递,可能会导致未处理的拒绝(unhandled rejection)。
const { Duplex } = require('node:stream');
Duplex.from([
new Promise((resolve) => setTimeout(resolve('1'), 1500)),
new Promise((_, reject) => setTimeout(reject(new Error('2')), 1000)), // Unhandled rejection
]);
stream.Duplex.fromWeb(pair[, options])
#
pair
<Object>readable
<ReadableStream>writable
<WritableStream>
options
<Object>- 返回: <stream.Duplex>
import { Duplex } from 'node:stream';
import {
ReadableStream,
WritableStream,
} from 'node:stream/web';
const readable = new ReadableStream({
start(controller) {
controller.enqueue('world');
},
});
const writable = new WritableStream({
write(chunk) {
console.log('writable', chunk);
},
});
const pair = {
readable,
writable,
};
const duplex = Duplex.fromWeb(pair, { encoding: 'utf8', objectMode: true });
duplex.write('hello');
for await (const chunk of duplex) {
console.log('readable', chunk);
}
const { Duplex } = require('node:stream');
const {
ReadableStream,
WritableStream,
} = require('node:stream/web');
const readable = new ReadableStream({
start(controller) {
controller.enqueue('world');
},
});
const writable = new WritableStream({
write(chunk) {
console.log('writable', chunk);
},
});
const pair = {
readable,
writable,
};
const duplex = Duplex.fromWeb(pair, { encoding: 'utf8', objectMode: true });
duplex.write('hello');
duplex.once('readable', () => console.log('readable', duplex.read()));
stream.Duplex.toWeb(streamDuplex)
#
streamDuplex
<stream.Duplex>- 返回:<Object>
readable
<ReadableStream>writable
<WritableStream>
import { Duplex } from 'node:stream';
const duplex = Duplex({
objectMode: true,
read() {
this.push('world');
this.push(null);
},
write(chunk, encoding, callback) {
console.log('writable', chunk);
callback();
},
});
const { readable, writable } = Duplex.toWeb(duplex);
writable.getWriter().write('hello');
const { value } = await readable.getReader().read();
console.log('readable', value);
const { Duplex } = require('node:stream');
const duplex = Duplex({
objectMode: true,
read() {
this.push('world');
this.push(null);
},
write(chunk, encoding, callback) {
console.log('writable', chunk);
callback();
},
});
const { readable, writable } = Duplex.toWeb(duplex);
writable.getWriter().write('hello');
readable.getReader().read().then((result) => {
console.log('readable', result.value);
});
stream.addAbortSignal(signal, stream)
#
signal
<AbortSignal> 一个表示可能取消的信号stream
<Stream> | <ReadableStream> | <WritableStream> 要附加信号的流。
将 AbortSignal 附加到可读或可写流。这让代码可以使用 AbortController
控制流的销毁。
在与传递的 AbortSignal
相对应的 AbortController
上调用 abort
的行为,将与在流上调用 .destroy(new AbortError())
的行为相同,对于 Web 流则是 controller.error(new AbortError())
。
const fs = require('node:fs');
const controller = new AbortController();
const read = addAbortSignal(
controller.signal,
fs.createReadStream(('object.json')),
);
// Later, abort the operation closing the stream
controller.abort();
或者将 AbortSignal
与可读流一起用作异步迭代器
const controller = new AbortController();
setTimeout(() => controller.abort(), 10_000); // set a timeout
const stream = addAbortSignal(
controller.signal,
fs.createReadStream(('object.json')),
);
(async () => {
try {
for await (const chunk of stream) {
await process(chunk);
}
} catch (e) {
if (e.name === 'AbortError') {
// The operation was cancelled
} else {
throw e;
}
}
})();
或者将 AbortSignal
与 ReadableStream 一起使用
const controller = new AbortController();
const rs = new ReadableStream({
start(controller) {
controller.enqueue('hello');
controller.enqueue('world');
controller.close();
},
});
addAbortSignal(controller.signal, rs);
finished(rs, (err) => {
if (err) {
if (err.name === 'AbortError') {
// The operation was cancelled
}
}
});
const reader = rs.getReader();
reader.read().then(({ value, done }) => {
console.log(value); // hello
console.log(done); // false
controller.abort();
});
stream.getDefaultHighWaterMark(objectMode)
#
返回流使用的默认 highWaterMark。默认为 65536
(64 KiB),对于 objectMode
则为 16
。
面向流实现者的 API#
node:stream
模块的 API 旨在使得使用 JavaScript 的原型继承模型轻松实现流成为可能。
首先,流开发者需要声明一个新的 JavaScript 类,该类继承自四个基本流类之一(stream.Writable
、stream.Readable
、stream.Duplex
或 stream.Transform
),并确保调用了相应的父类构造函数
const { Writable } = require('node:stream');
class MyWritable extends Writable {
constructor({ highWaterMark, ...options }) {
super({ highWaterMark });
// ...
}
}
在扩展流时,请记住用户可以且应该提供哪些选项,然后再将这些选项转发给基类构造函数。例如,如果实现对 autoDestroy
和 emitClose
选项有特定假设,则不要允许用户覆盖这些选项。应明确说明转发了哪些选项,而不是隐式转发所有选项。
新的流类必须实现一个或多个特定方法,具体取决于所创建的流的类型,如下表所示
用例 | 类 | 需要实现的方法 |
---|---|---|
只读 | Readable | _read() |
只写 | Writable | _write() , _writev() , _final() |
读和写 | Duplex | _read() , _write() , _writev() , _final() |
对写入的数据进行操作,然后读取结果 | Transform | _transform() , _flush() , _final() |
流的实现代码绝不应该调用供消费者使用的流的“公共”方法(如面向流消费者的 API部分所述)。这样做可能会导致使用该流的应用程序代码产生不良副作用。
避免覆盖公共方法,如 write()
、end()
、cork()
、uncork()
、read()
和 destroy()
,或者通过 .emit()
触发内部事件,如 'error'
、'data'
、'end'
、'finish'
和 'close'
。这样做会破坏当前和未来的流不变量,导致与其他流、流实用工具和用户期望的行为和/或兼容性问题。
简化的构造#
对于许多简单情况,可以在不依赖继承的情况下创建流。这可以通过直接创建 stream.Writable
、stream.Readable
、stream.Duplex
或 stream.Transform
对象的实例,并将适当的方法作为构造函数选项传递来实现。
const { Writable } = require('node:stream');
const myWritable = new Writable({
construct(callback) {
// Initialize state and load resources...
},
write(chunk, encoding, callback) {
// ...
},
destroy() {
// Free resources...
},
});
实现一个可写流#
stream.Writable
类被扩展以实现一个 Writable
流。
自定义的 Writable
流必须调用 new stream.Writable([options])
构造函数并实现 writable._write()
和/或 writable._writev()
方法。
new stream.Writable([options])
#
options
<Object>highWaterMark
<number> 当stream.write()
开始返回false
时的缓冲区级别。默认值:65536
(64 KiB),对于objectMode
流则为16
。decodeStrings
<boolean> 在将传递给stream.write()
的string
传递给stream._write()
之前,是否将其编码为Buffer
(使用stream.write()
调用中指定的编码)。其他类型的数据不会被转换(即Buffer
不会被解码为string
)。设置为 false 将阻止string
的转换。默认值:true
。defaultEncoding
<string> 当没有指定编码作为stream.write()
的参数时使用的默认编码。默认值:'utf8'
。objectMode
<boolean>stream.write(anyObj)
是否是有效操作。当设置时,如果流实现支持,则可以写入除 string、<Buffer>、<TypedArray> 或 <DataView> 之外的 JavaScript 值。默认值:false
。emitClose
<boolean> 流在被销毁后是否应发出'close'
事件。默认值:true
。write
<Function>stream._write()
方法的实现。writev
<Function>stream._writev()
方法的实现。destroy
<Function>stream._destroy()
方法的实现。final
<Function>stream._final()
方法的实现。construct
<Function>stream._construct()
方法的实现。autoDestroy
<boolean> 此流在结束后是否应自动调用.destroy()
。默认值:true
。signal
<AbortSignal> 一个表示可能取消的信号。
const { Writable } = require('node:stream');
class MyWritable extends Writable {
constructor(options) {
// Calls the stream.Writable() constructor.
super(options);
// ...
}
}
或者,在使用 ES6 之前的构造函数风格时
const { Writable } = require('node:stream');
const util = require('node:util');
function MyWritable(options) {
if (!(this instanceof MyWritable))
return new MyWritable(options);
Writable.call(this, options);
}
util.inherits(MyWritable, Writable);
或者,使用简化的构造函数方法
const { Writable } = require('node:stream');
const myWritable = new Writable({
write(chunk, encoding, callback) {
// ...
},
writev(chunks, callback) {
// ...
},
});
在与传递的 AbortSignal
相对应的 AbortController
上调用 abort
的行为将与在可写流上调用 .destroy(new AbortError())
的行为相同。
const { Writable } = require('node:stream');
const controller = new AbortController();
const myWritable = new Writable({
write(chunk, encoding, callback) {
// ...
},
writev(chunks, callback) {
// ...
},
signal: controller.signal,
});
// Later, abort the operation closing the stream
controller.abort();
writable._construct(callback)
#
callback
<Function> 当流完成初始化时调用此函数(可选地带一个错误参数)。
_construct()
方法不能被直接调用。它可以由子类实现,如果实现,则仅由内部 Writable
类的方法调用。
这个可选函数将在流构造函数返回后的一个 tick 中被调用,将任何 _write()
、_final()
和 _destroy()
调用延迟到 callback
被调用之后。这对于在流可以使用之前初始化状态或异步初始化资源很有用。
const { Writable } = require('node:stream');
const fs = require('node:fs');
class WriteStream extends Writable {
constructor(filename) {
super();
this.filename = filename;
this.fd = null;
}
_construct(callback) {
fs.open(this.filename, 'w', (err, fd) => {
if (err) {
callback(err);
} else {
this.fd = fd;
callback();
}
});
}
_write(chunk, encoding, callback) {
fs.write(this.fd, chunk, callback);
}
_destroy(err, callback) {
if (this.fd) {
fs.close(this.fd, (er) => callback(er || err));
} else {
callback(err);
}
}
}
writable._write(chunk, encoding, callback)
#
chunk
<Buffer> | <string> | <any> 要写入的Buffer
,由传递给stream.write()
的string
转换而来。如果流的decodeStrings
选项为false
或流在对象模式下操作,则 chunk 不会被转换,并且将是传递给stream.write()
的任何内容。encoding
<string> 如果 chunk 是一个字符串,则encoding
是该字符串的字符编码。如果 chunk 是一个Buffer
,或者流在对象模式下操作,encoding
可能会被忽略。callback
<Function> 当所提供的数据块处理完成时调用此函数(可选地带一个错误参数)。
所有 Writable
流的实现都必须提供一个 writable._write()
和/或 writable._writev()
方法来将数据发送到底层资源。
Transform
流提供了它们自己的 writable._write()
实现。
此函数不能由应用程序代码直接调用。它应该由子类实现,并仅由内部 Writable
类的方法调用。
callback
函数必须在 writable._write()
内部同步调用,或异步调用(即在不同的 tick 中)以表明写入成功完成或因错误而失败。传递给 callback
的第一个参数必须是 Error
对象(如果调用失败)或 null
(如果写入成功)。
在 writable._write()
被调用和 callback
被调用之间发生的所有对 writable.write()
的调用都将导致写入的数据被缓冲。当 callback
被调用时,流可能会发出一个 'drain'
事件。如果一个流的实现能够一次处理多个数据块,那么应该实现 writable._writev()
方法。
如果在构造函数选项中将 decodeStrings
属性显式设置为 false
,则 chunk
将保持与传递给 .write()
的对象相同,并且可能是一个字符串而不是 Buffer
。这是为了支持对某些字符串数据编码有优化处理的实现。在这种情况下,encoding
参数将指示字符串的字符编码。否则,encoding
参数可以安全地忽略。
writable._write()
方法带有下划线前缀,因为它对于定义它的类是内部的,并且绝不应由用户程序直接调用。
writable._writev(chunks, callback)
#
chunks
<Object[]> 要写入的数据。该值是一个 <Object> 数组,每个对象代表一个要写入的离散数据块。这些对象的属性是callback
<Function> 一个回调函数(可选地带一个错误参数),在处理完所提供的数据块后被调用。
此函数不能由应用程序代码直接调用。它应该由子类实现,并仅由内部 Writable
类的方法调用。
writable._writev()
方法可以作为 writable._write()
的补充或替代方案,在能够一次处理多个数据块的流实现中实现。如果实现了该方法,并且存在来自先前写入的缓冲数据,则将调用 _writev()
而不是 _write()
。
writable._writev()
方法带有下划线前缀,因为它对于定义它的类是内部的,并且绝不应由用户程序直接调用。
writable._destroy(err, callback)
#
err
<Error> 一个可能的错误。callback
<Function> 一个回调函数,它接受一个可选的错误参数。
_destroy()
方法由 writable.destroy()
调用。它可以被子类覆盖,但绝不能直接调用。
writable._final(callback)
#
callback
<Function> 当写完所有剩余数据后调用此函数(可选地带一个错误参数)。
_final()
方法绝不能直接调用。它可以由子类实现,如果实现,则仅由内部 Writable
类的方法调用。
这个可选函数将在流关闭之前被调用,将 'finish'
事件延迟到 callback
被调用之后。这对于在流结束前关闭资源或写入缓冲数据很有用。
写入时出错#
在处理 writable._write()
、writable._writev()
和 writable._final()
方法期间发生的错误必须通过调用回调函数并将错误作为第一个参数传递来传播。在这些方法中抛出 Error
或手动发出 'error'
事件会导致未定义的行为。
如果一个 Readable
流通过管道连接到一个 Writable
流,当 Writable
发出错误时,Readable
流将被取消管道连接。
const { Writable } = require('node:stream');
const myWritable = new Writable({
write(chunk, encoding, callback) {
if (chunk.toString().indexOf('a') >= 0) {
callback(new Error('chunk is invalid'));
} else {
callback();
}
},
});
一个可写流的例子#
下面展示了一个相当简单(且有些无意义)的自定义 Writable
流实现。虽然这个特定的 Writable
流实例并没有什么实际用途,但这个例子展示了自定义 Writable
流实例的每个必需元素。
const { Writable } = require('node:stream');
class MyWritable extends Writable {
_write(chunk, encoding, callback) {
if (chunk.toString().indexOf('a') >= 0) {
callback(new Error('chunk is invalid'));
} else {
callback();
}
}
}
在可写流中解码缓冲区#
解码缓冲区是一项常见任务,例如,当使用输入为字符串的转换器时。当使用多字节字符编码(如 UTF-8)时,这并不是一个简单的过程。下面的例子展示了如何使用 StringDecoder
和 Writable
来解码多字节字符串。
const { Writable } = require('node:stream');
const { StringDecoder } = require('node:string_decoder');
class StringWritable extends Writable {
constructor(options) {
super(options);
this._decoder = new StringDecoder(options?.defaultEncoding);
this.data = '';
}
_write(chunk, encoding, callback) {
if (encoding === 'buffer') {
chunk = this._decoder.write(chunk);
}
this.data += chunk;
callback();
}
_final(callback) {
this.data += this._decoder.end();
callback();
}
}
const euro = [[0xE2, 0x82], [0xAC]].map(Buffer.from);
const w = new StringWritable();
w.write('currency: ');
w.write(euro[0]);
w.end(euro[1]);
console.log(w.data); // currency: €
实现一个可读流#
stream.Readable
类被扩展以实现一个 Readable
流。
自定义的 Readable
流必须调用 new stream.Readable([options])
构造函数并实现 readable._read()
方法。
new stream.Readable([options])
#
options
<Object>highWaterMark
<number> 在停止从底层资源读取之前,内部缓冲区中存储的最大字节数。默认值:65536
(64 KiB),对于objectMode
流则为16
。encoding
<string> 如果指定,则缓冲区将使用指定的编码解码为字符串。默认值:null
。objectMode
<boolean> 此流是否应表现为对象流。这意味着stream.read(n)
返回单个值而不是大小为n
的Buffer
。默认值:false
。emitClose
<boolean> 流在被销毁后是否应发出'close'
事件。默认值:true
。read
<Function>stream._read()
方法的实现。destroy
<Function>stream._destroy()
方法的实现。construct
<Function>stream._construct()
方法的实现。autoDestroy
<boolean> 此流在结束后是否应自动调用.destroy()
。默认值:true
。signal
<AbortSignal> 一个表示可能取消的信号。
const { Readable } = require('node:stream');
class MyReadable extends Readable {
constructor(options) {
// Calls the stream.Readable(options) constructor.
super(options);
// ...
}
}
或者,在使用 ES6 之前的构造函数风格时
const { Readable } = require('node:stream');
const util = require('node:util');
function MyReadable(options) {
if (!(this instanceof MyReadable))
return new MyReadable(options);
Readable.call(this, options);
}
util.inherits(MyReadable, Readable);
或者,使用简化的构造函数方法
const { Readable } = require('node:stream');
const myReadable = new Readable({
read(size) {
// ...
},
});
在与传递的 AbortSignal
对应的 AbortController
上调用 abort
的行为,将与在创建的可读流上调用 .destroy(new AbortError())
的行为相同。
const { Readable } = require('node:stream');
const controller = new AbortController();
const read = new Readable({
read(size) {
// ...
},
signal: controller.signal,
});
// Later, abort the operation closing the stream
controller.abort();
readable._construct(callback)
#
callback
<Function> 当流完成初始化时调用此函数(可选地带一个错误参数)。
_construct()
方法不能被直接调用。它可以由子类实现,如果实现,则仅由内部 Readable
类的方法调用。
这个可选函数将由流构造函数在下一个 tick 中安排执行,将任何 _read()
和 _destroy()
调用延迟到 callback
被调用之后。这对于在流可以使用之前初始化状态或异步初始化资源很有用。
const { Readable } = require('node:stream');
const fs = require('node:fs');
class ReadStream extends Readable {
constructor(filename) {
super();
this.filename = filename;
this.fd = null;
}
_construct(callback) {
fs.open(this.filename, (err, fd) => {
if (err) {
callback(err);
} else {
this.fd = fd;
callback();
}
});
}
_read(n) {
const buf = Buffer.alloc(n);
fs.read(this.fd, buf, 0, n, null, (err, bytesRead) => {
if (err) {
this.destroy(err);
} else {
this.push(bytesRead > 0 ? buf.slice(0, bytesRead) : null);
}
});
}
_destroy(err, callback) {
if (this.fd) {
fs.close(this.fd, (er) => callback(er || err));
} else {
callback(err);
}
}
}
readable._read(size)
#
size
<number> 异步读取的字节数
此函数不能由应用程序代码直接调用。它应该由子类实现,并仅由内部 Readable
类的方法调用。
所有 Readable
流的实现都必须提供一个 readable._read()
方法的实现,以从底层资源获取数据。
当 readable._read()
被调用时,如果资源中有可用数据,实现应该开始使用 this.push(dataChunk)
方法将数据推入读取队列。在每次调用 this.push(dataChunk)
之后,一旦流准备好接受更多数据,_read()
将再次被调用。_read()
可以继续从资源中读取并推送数据,直到 readable.push()
返回 false
。只有在它停止后再次调用 _read()
时,它才应恢复向队列中推送额外的数据。
一旦 readable._read()
方法被调用,直到通过 readable.push()
方法推送更多数据之前,它不会再次被调用。空数据,如空缓冲区和空字符串,不会导致 readable._read()
被调用。
size
参数是建议性的。对于那些“读取”是返回数据的单个操作的实现,可以使用 size
参数来确定要获取多少数据。其他实现可以忽略此参数,并在数据可用时简单地提供数据。没有必要在调用 stream.push(chunk)
之前“等待”直到 size
字节可用。
readable._read()
方法带有下划线前缀,因为它对于定义它的类是内部的,并且绝不应由用户程序直接调用。
readable._destroy(err, callback)
#
err
<Error> 一个可能的错误。callback
<Function> 一个回调函数,它接受一个可选的错误参数。
_destroy()
方法由 readable.destroy()
调用。它可以被子类覆盖,但绝不能直接调用。
readable.push(chunk[, encoding])
#
chunk
<Buffer> | <TypedArray> | <DataView> | <string> | <null> | <any> 要推入读取队列的数据块。对于非对象模式的流,chunk
必须是 <string>、<Buffer>、<TypedArray> 或 <DataView>。对于对象模式的流,chunk
可以是任何 JavaScript 值。encoding
<string> 字符串块的编码。必须是有效的Buffer
编码,如'utf8'
或'ascii'
。- 返回: <boolean> 如果可以继续推送额外的数据块,则为
true
;否则为false
。
当 chunk
是一个 <Buffer>、<TypedArray>、<DataView> 或 <string> 时,数据块将被添加到内部队列中,供流的消费者使用。将 chunk
作为 null
传递表示流的结束(EOF),之后不能再写入任何数据。
当 Readable
流在暂停模式下运行时,可以通过在 'readable'
事件触发时调用 readable.read()
方法来读取通过 readable.push()
添加的数据。
当 Readable
流在流动模式下运行时,通过 readable.push()
添加的数据会通过触发 'data'
事件来交付。
readable.push()
方法的设计尽可能灵活。例如,当包装一个提供某种形式的暂停/恢复机制和数据回调的底层源时,可以通过自定义的 Readable
实例来包装这个底层源。
// `_source` is an object with readStop() and readStart() methods,
// and an `ondata` member that gets called when it has data, and
// an `onend` member that gets called when the data is over.
class SourceWrapper extends Readable {
constructor(options) {
super(options);
this._source = getLowLevelSourceObject();
// Every time there's data, push it into the internal buffer.
this._source.ondata = (chunk) => {
// If push() returns false, then stop reading from source.
if (!this.push(chunk))
this._source.readStop();
};
// When the source ends, push the EOF-signaling `null` chunk.
this._source.onend = () => {
this.push(null);
};
}
// _read() will be called when the stream wants to pull more data in.
// The advisory size argument is ignored in this case.
_read(size) {
this._source.readStart();
}
}
readable.push()
方法用于将内容推送到内部缓冲区。它可以由 readable._read()
方法驱动。
对于非对象模式下运行的流,如果 readable.push()
的 chunk
参数是 undefined
,它将被视为空字符串或空缓冲区。更多信息请参见 readable.push('')
。
读取时出错#
在处理 readable._read()
期间发生的错误必须通过 readable.destroy(err)
方法传播。在 readable._read()
内部抛出 Error
或手动触发 'error'
事件会导致未定义的行为。
const { Readable } = require('node:stream');
const myReadable = new Readable({
read(size) {
const err = checkSomeErrorCondition();
if (err) {
this.destroy(err);
} else {
// Do some work.
}
},
});
一个计数流的例子#
下面是一个 Readable
流的基本示例,它会按升序发出从 1 到 1,000,000 的数字,然后结束。
const { Readable } = require('node:stream');
class Counter extends Readable {
constructor(opt) {
super(opt);
this._max = 1000000;
this._index = 1;
}
_read() {
const i = this._index++;
if (i > this._max)
this.push(null);
else {
const str = String(i);
const buf = Buffer.from(str, 'ascii');
this.push(buf);
}
}
}
实现一个双工流#
一个 Duplex
(双工)流是同时实现了 Readable
和 Writable
的流,例如 TCP 套接字连接。
由于 JavaScript 不支持多重继承,stream.Duplex
类被扩展以实现 Duplex
流(而不是同时扩展 stream.Readable
*和* stream.Writable
类)。
stream.Duplex
类在原型上继承自 stream.Readable
,并寄生式地继承自 stream.Writable
,但由于在 stream.Writable
上重写了 Symbol.hasInstance
,instanceof
对于这两个基类都能正常工作。
自定义的 Duplex
流*必须*调用 new stream.Duplex([options])
构造函数,并实现 readable._read()
和 writable._write()
这两个方法。
new stream.Duplex(options)
#
options
<Object> 传递给Writable
和Readable
的构造函数。同时还有以下字段:allowHalfOpen
<boolean> 如果设置为false
,那么当可读端结束时,流将自动结束可写端。默认值:true
。readable
<boolean> 设置Duplex
是否应为可读的。默认值:true
。writable
<boolean> 设置Duplex
是否应为可写的。默认值:true
。readableObjectMode
<boolean> 为流的可读端设置objectMode
。如果objectMode
为true
,则此项无效。默认值:false
。writableObjectMode
<boolean> 为流的可写端设置objectMode
。如果objectMode
为true
,则此项无效。默认值:false
。readableHighWaterMark
<number> 为流的可读端设置highWaterMark
。如果已提供了highWaterMark
,则此项无效。writableHighWaterMark
<number> 为流的可写端设置highWaterMark
。如果已提供了highWaterMark
,则此项无效。
const { Duplex } = require('node:stream');
class MyDuplex extends Duplex {
constructor(options) {
super(options);
// ...
}
}
或者,在使用 ES6 之前的构造函数风格时
const { Duplex } = require('node:stream');
const util = require('node:util');
function MyDuplex(options) {
if (!(this instanceof MyDuplex))
return new MyDuplex(options);
Duplex.call(this, options);
}
util.inherits(MyDuplex, Duplex);
或者,使用简化的构造函数方法
const { Duplex } = require('node:stream');
const myDuplex = new Duplex({
read(size) {
// ...
},
write(chunk, encoding, callback) {
// ...
},
});
当使用管道时
const { Transform, pipeline } = require('node:stream');
const fs = require('node:fs');
pipeline(
fs.createReadStream('object.json')
.setEncoding('utf8'),
new Transform({
decodeStrings: false, // Accept string input rather than Buffers
construct(callback) {
this.data = '';
callback();
},
transform(chunk, encoding, callback) {
this.data += chunk;
callback();
},
flush(callback) {
try {
// Make sure is valid json.
JSON.parse(this.data);
this.push(this.data);
callback();
} catch (err) {
callback(err);
}
},
}),
fs.createWriteStream('valid-object.json'),
(err) => {
if (err) {
console.error('failed', err);
} else {
console.log('completed');
}
},
);
一个双工流的例子#
下面演示了一个简单的 Duplex
流示例,它包装了一个假设的底层源对象,数据可以写入该对象,也可以从中读取数据,尽管其使用的 API 与 Node.js 流不兼容。下面这个简单的 Duplex
流示例,通过 Writable
接口缓冲传入的写入数据,然后通过 Readable
接口将这些数据读出。
const { Duplex } = require('node:stream');
const kSource = Symbol('source');
class MyDuplex extends Duplex {
constructor(source, options) {
super(options);
this[kSource] = source;
}
_write(chunk, encoding, callback) {
// The underlying source only deals with strings.
if (Buffer.isBuffer(chunk))
chunk = chunk.toString();
this[kSource].writeSomeData(chunk);
callback();
}
_read(size) {
this[kSource].fetchSomeData(size, (data, encoding) => {
this.push(Buffer.from(data, encoding));
});
}
}
Duplex
流最重要的一个方面是,尽管 Readable
和 Writable
两侧共存于同一个对象实例中,但它们是独立运作的。
对象模式的双工流#
对于 Duplex
流,可以使用 readableObjectMode
和 writableObjectMode
选项分别为 Readable
或 Writable
端单独设置 objectMode
。
例如,在下面的例子中,创建了一个新的 Transform
流(它是一种 Duplex
流),其可写端是对象模式,接受 JavaScript 数字,然后在可读端将这些数字转换为十六进制字符串。
const { Transform } = require('node:stream');
// All Transform streams are also Duplex Streams.
const myTransform = new Transform({
writableObjectMode: true,
transform(chunk, encoding, callback) {
// Coerce the chunk to a number if necessary.
chunk |= 0;
// Transform the chunk into something else.
const data = chunk.toString(16);
// Push the data onto the readable queue.
callback(null, '0'.repeat(data.length % 2) + data);
},
});
myTransform.setEncoding('ascii');
myTransform.on('data', (chunk) => console.log(chunk));
myTransform.write(1);
// Prints: 01
myTransform.write(10);
// Prints: 0a
myTransform.write(100);
// Prints: 64
实现一个转换流#
一个 Transform
(转换)流是一种 Duplex
流,其输出是以某种方式根据输入计算得出的。例子包括用于压缩、加密或解密数据的 zlib 流或 crypto 流。
输出的大小、块数或到达时间不要求与输入相同。例如,一个 Hash
流永远只有一个输出块,它在输入结束时提供。一个 zlib
流产生的输出可能比其输入小得多或大得多。
要实现一个 Transform
流,需要扩展 stream.Transform
类。
stream.Transform
类在原型上继承自 stream.Duplex
,并实现了它自己版本的 writable._write()
和 readable._read()
方法。自定义的 Transform
实现*必须*实现 transform._transform()
方法,并且*可以*实现 transform._flush()
方法。
使用 Transform
流时必须小心,因为如果可读端的输出未被消费,写入流的数据可能会导致流的可写端暂停。
new stream.Transform([options])
#
options
<Object> 传递给Writable
和Readable
的构造函数。同时还有以下字段:transform
<Function>stream._transform()
方法的实现。flush
<Function>stream._flush()
方法的实现。
const { Transform } = require('node:stream');
class MyTransform extends Transform {
constructor(options) {
super(options);
// ...
}
}
或者,在使用 ES6 之前的构造函数风格时
const { Transform } = require('node:stream');
const util = require('node:util');
function MyTransform(options) {
if (!(this instanceof MyTransform))
return new MyTransform(options);
Transform.call(this, options);
}
util.inherits(MyTransform, Transform);
或者,使用简化的构造函数方法
const { Transform } = require('node:stream');
const myTransform = new Transform({
transform(chunk, encoding, callback) {
// ...
},
});
事件:'end'
#
'end'
事件来自 stream.Readable
类。'end'
事件在所有数据都已输出后触发,这发生在 transform._flush()
中的回调被调用之后。如果发生错误,则不应触发 'end'
事件。
事件:'finish'
#
'finish'
事件来自 stream.Writable
类。'finish'
事件在调用 stream.end()
并且所有数据块都已被 stream._transform()
处理后触发。如果发生错误,则不应触发 'finish'
事件。
transform._flush(callback)
#
callback
<Function> 一个回调函数(可选地带有一个错误参数和数据),在剩余数据被刷清时调用。
此函数不能由应用程序代码直接调用。它应该由子类实现,并仅由内部 Readable
类的方法调用。
在某些情况下,转换操作可能需要在流的末尾发出一些额外的数据。例如,一个 zlib
压缩流会存储一定量的内部状态,用于优化压缩输出。然而,当流结束时,需要刷清这些额外的数据,以确保压缩数据是完整的。
自定义的 Transform
实现*可以*实现 transform._flush()
方法。这将在没有更多写入数据需要消费时被调用,但在标志 Readable
流结束的 'end'
事件触发之前。
在 transform._flush()
实现中,可以根据需要调用 transform.push()
方法零次或多次。当刷清操作完成时,必须调用 callback
函数。
transform._flush()
方法带有一个下划线前缀,因为它是定义它的类的内部方法,绝不应被用户程序直接调用。
transform._transform(chunk, encoding, callback)
#
chunk
<Buffer> | <string> | <any> 要转换的Buffer
,由传递给stream.write()
的string
转换而来。如果流的decodeStrings
选项为false
或流在对象模式下运行,则该数据块不会被转换,而是保持传递给stream.write()
的原始值。encoding
<string> 如果数据块是字符串,则这是编码类型。如果数据块是 buffer,则这是一个特殊值'buffer'
。在这种情况下可以忽略它。callback
<Function> 一个回调函数(可选地带有一个错误参数和数据),在提供的chunk
被处理后调用。
此函数不能由应用程序代码直接调用。它应该由子类实现,并仅由内部 Readable
类的方法调用。
所有 Transform
流的实现都必须提供一个 _transform()
方法来接收输入和产生输出。transform._transform()
的实现处理正在写入的字节,计算出一个输出,然后使用 transform.push()
方法将该输出传递给可读部分。
transform.push()
方法可以被调用零次或多次,以从单个输入块生成输出,这取决于该块需要产生多少输出。
可能任何给定的输入数据块都不会产生任何输出。
只有在当前数据块被完全消费后,才必须调用 callback
函数。如果处理输入时发生错误,传递给 callback
的第一个参数必须是一个 Error
对象,否则为 null
。如果第二个参数被传递给 callback
,它将被转发给 transform.push()
方法,但前提是第一个参数为假值。换句话说,以下两种写法是等价的:
transform.prototype._transform = function(data, encoding, callback) {
this.push(data);
callback();
};
transform.prototype._transform = function(data, encoding, callback) {
callback(null, data);
};
transform._transform()
方法带有一个下划线前缀,因为它是定义它的类的内部方法,绝不应被用户程序直接调用。
transform._transform()
永远不会并行调用;流实现了一个队列机制,要接收下一个数据块,必须调用 callback
,可以是同步的也可以是异步的。
附加说明#
流与异步生成器和异步迭代器的兼容性#
随着 JavaScript 对异步生成器和迭代器的支持,异步生成器在目前实际上已成为一种一流的语言级流构造。
下面提供了一些将 Node.js 流与异步生成器和异步迭代器一起使用的常见互操作案例。
使用异步迭代器消费可读流#
(async function() {
for await (const chunk of readable) {
console.log(chunk);
}
})();
异步迭代器会在流上注册一个永久的错误处理器,以防止任何销毁后未处理的错误。
使用异步生成器创建可读流#
可以使用 Readable.from()
工具方法从异步生成器创建 Node.js 可读流。
const { Readable } = require('node:stream');
const ac = new AbortController();
const signal = ac.signal;
async function * generate() {
yield 'a';
await someLongRunningFn({ signal });
yield 'b';
yield 'c';
}
const readable = Readable.from(generate());
readable.on('close', () => {
ac.abort();
});
readable.on('data', (chunk) => {
console.log(chunk);
});
从异步迭代器管道到可写流#
当从异步迭代器写入可写流时,请确保正确处理背压和错误。stream.pipeline()
抽象了背压及相关错误的处理。
const fs = require('node:fs');
const { pipeline } = require('node:stream');
const { pipeline: pipelinePromise } = require('node:stream/promises');
const writable = fs.createWriteStream('./file');
const ac = new AbortController();
const signal = ac.signal;
const iterator = createIterator({ signal });
// Callback Pattern
pipeline(iterator, writable, (err, value) => {
if (err) {
console.error(err);
} else {
console.log(value, 'value returned');
}
}).on('close', () => {
ac.abort();
});
// Promise Pattern
pipelinePromise(iterator, writable)
.then((value) => {
console.log(value, 'value returned');
})
.catch((err) => {
console.error(err);
ac.abort();
});
与旧版 Node.js 的兼容性#
在 Node.js 0.10 之前,Readable
流的接口更简单,但也功能较弱且用处不大。
'data'
事件会立即开始触发,而不是等待对stream.read()
方法的调用。那些需要执行一些工作来决定如何处理数据的应用程序,必须将读取的数据存储到缓冲区中,以防数据丢失。stream.pause()
方法是建议性的,而不是保证性的。这意味着,*即使流处于暂停状态*,仍然需要准备好接收'data'
事件。
在 Node.js 0.10 中,添加了 Readable
类。为了与旧的 Node.js 程序向后兼容,当添加 'data'
事件处理器或调用 stream.resume()
方法时,Readable
流会切换到“流动模式”。其效果是,即使不使用新的 stream.read()
方法和 'readable'
事件,也不再需要担心丢失 'data'
数据块了。
虽然大多数应用程序会继续正常运行,但这在以下情况下引入了一个边界情况:
- 没有添加
'data'
事件监听器。 - 从未调用
stream.resume()
方法。 - 流没有被管道到任何可写的目标。
例如,考虑以下代码:
// WARNING! BROKEN!
net.createServer((socket) => {
// We add an 'end' listener, but never consume the data.
socket.on('end', () => {
// It will never get here.
socket.end('The message was received but was not processed.\n');
});
}).listen(1337);
在 Node.js 0.10 之前,传入的消息数据会被简单地丢弃。然而,在 Node.js 0.10 及更高版本中,套接字会永远保持暂停状态。
这种情况下的解决方法是调用 stream.resume()
方法来开始数据流动。
// Workaround.
net.createServer((socket) => {
socket.on('end', () => {
socket.end('The message was received but was not processed.\n');
});
// Start the flow of data, discarding it.
socket.resume();
}).listen(1337);
除了新的 Readable
流会切换到流动模式外,0.10 之前的旧式流可以使用 readable.wrap()
方法包装在一个 Readable
类中。
readable.read(0)
#
在某些情况下,有必要触发底层可读流机制的刷新,而不实际消费任何数据。在这种情况下,可以调用 readable.read(0)
,它将始终返回 null
。
如果内部读取缓冲区低于 highWaterMark
,并且流当前没有在读取,那么调用 stream.read(0)
将触发一个底层的 stream._read()
调用。
虽然大多数应用程序几乎永远不需要这样做,但在 Node.js 的某些情况下会这样做,特别是在 Readable
流类的内部实现中。
readable.push('')
#
不建议使用 readable.push('')
。
将一个零字节的 <string>、<Buffer>、<TypedArray> 或 <DataView> 推送到一个非对象模式的流中会产生一个有趣的副作用。因为这*是*一次对 readable.push()
的调用,所以这个调用会结束读取过程。然而,由于参数是一个空字符串,没有数据被添加到可读缓冲区,所以用户没有任何东西可以消费。
调用 readable.setEncoding()
后 highWaterMark
的差异#
使用 readable.setEncoding()
会改变 highWaterMark
在非对象模式下的行为方式。
通常,当前缓冲区的大小是根据 highWaterMark
以*字节*为单位来衡量的。然而,在调用 setEncoding()
之后,比较函数将开始以*字符*为单位来衡量缓冲区的大小。
在处理 latin1
或 ascii
的常见情况下,这不成问题。但是,在处理可能包含多字节字符的字符串时,建议注意这种行为。