Node.js v24.0.0 文档
- Node.js v24.0.0
-
目录
- Web Streams API
- 概述
- API
- 类:
ReadableStream
new ReadableStream([underlyingSource [, strategy]])
readableStream.locked
readableStream.cancel([reason])
readableStream.getReader([options])
readableStream.pipeThrough(transform[, options])
readableStream.pipeTo(destination[, options])
readableStream.tee()
readableStream.values([options])
- 异步迭代
- 使用
postMessage()
传输
ReadableStream.from(iterable)
- 类:
ReadableStreamDefaultReader
- 类:
ReadableStreamBYOBReader
- 类:
ReadableStreamDefaultController
- 类:
ReadableByteStreamController
- 类:
ReadableStreamBYOBRequest
- 类:
WritableStream
- 类:
WritableStreamDefaultWriter
new WritableStreamDefaultWriter(stream)
writableStreamDefaultWriter.abort([reason])
writableStreamDefaultWriter.close()
writableStreamDefaultWriter.closed
writableStreamDefaultWriter.desiredSize
writableStreamDefaultWriter.ready
writableStreamDefaultWriter.releaseLock()
writableStreamDefaultWriter.write([chunk])
- 类:
WritableStreamDefaultController
- 类:
TransformStream
- 类:
TransformStreamDefaultController
- 类:
ByteLengthQueuingStrategy
- 类:
CountQueuingStrategy
- 类:
TextEncoderStream
- 类:
TextDecoderStream
- 类:
CompressionStream
- 类:
DecompressionStream
- 实用工具消费者
- 类:
- Web Streams API
-
索引
- 断言测试
- 异步上下文跟踪
- 异步钩子
- Buffer
- C++ 插件
- 使用 Node-API 的 C/C++ 插件
- C++ 嵌入器 API
- 子进程
- Cluster
- 命令行选项
- Console
- Crypto
- Debugger
- 已弃用的 API
- 诊断通道
- DNS
- Domain
- 错误
- Events
- 文件系统
- 全局变量
- HTTP
- HTTP/2
- HTTPS
- Inspector
- 国际化
- 模块:CommonJS 模块
- 模块:ECMAScript 模块
- 模块:
node:module
API - 模块:包
- 模块:TypeScript
- Net
- OS
- Path
- 性能钩子
- 权限
- Process
- Punycode
- 查询字符串
- Readline
- REPL
- Report
- 单可执行应用程序
- SQLite
- Stream
- String decoder
- 测试运行器
- Timers
- TLS/SSL
- Trace events
- TTY
- UDP/datagram
- URL
- 实用工具
- V8
- VM
- WASI
- Web Crypto API
- Web Streams API
- Worker threads
- Zlib
- 其他版本
- 选项
Web Streams API#
概述#
WHATWG Streams 标准(或“web streams”)定义了一个用于处理流数据的 API。 它类似于 Node.js 的 Streams API,但出现较晚,并且已成为跨许多 JavaScript 环境流式传输数据的“标准”API。
有三种主要类型的对象
ReadableStream
- 表示流数据的源。WritableStream
- 表示流数据的目标。TransformStream
- 表示转换流数据的算法。
ReadableStream
示例#
此示例创建一个简单的 ReadableStream
,该流每秒永久推送一次当前的 performance.now()
时间戳。 异步可迭代对象用于从流中读取数据。
import {
ReadableStream,
} from 'node:stream/web';
import {
setInterval as every,
} from 'node:timers/promises';
import {
performance,
} from 'node:perf_hooks';
const SECOND = 1000;
const stream = new ReadableStream({
async start(controller) {
for await (const _ of every(SECOND))
controller.enqueue(performance.now());
},
});
for await (const value of stream)
console.log(value);
const {
ReadableStream,
} = require('node:stream/web');
const {
setInterval: every,
} = require('node:timers/promises');
const {
performance,
} = require('node:perf_hooks');
const SECOND = 1000;
const stream = new ReadableStream({
async start(controller) {
for await (const _ of every(SECOND))
controller.enqueue(performance.now());
},
});
(async () => {
for await (const value of stream)
console.log(value);
})();
Node.js 流互操作性#
Node.js 流可以通过 stream.Readable
、stream.Writable
和 stream.Duplex
对象上的 toWeb
和 fromWeb
方法转换为 web 流,反之亦然。
有关更多详细信息,请参阅相关文档
API#
类:ReadableStream
#
new ReadableStream([underlyingSource [, strategy]])
#
underlyingSource
<Object>start
<Function> 用户定义的函数,在创建ReadableStream
时立即调用。controller
<ReadableStreamDefaultController> | <ReadableByteStreamController>- 返回:
undefined
或使用undefined
兑现的 Promise。
pull
<Function> 当ReadableStream
内部队列未满时,重复调用用户定义的函数。 该操作可以是同步的或异步的。 如果是异步的,则在先前返回的 Promise 兑现之前,不会再次调用该函数。controller
<ReadableStreamDefaultController> | <ReadableByteStreamController>- 返回:使用
undefined
兑现的 Promise。
cancel
<Function> 取消ReadableStream
时调用的用户定义的函数。reason
<any>- 返回:使用
undefined
兑现的 Promise。
type
<string> 必须是'bytes'
或undefined
。autoAllocateChunkSize
<number> 仅当type
等于'bytes'
时使用。 当设置为非零值时,视图缓冲区会自动分配给ReadableByteStreamController.byobRequest
。 如果未设置,则必须使用流的内部队列,通过默认读取器ReadableStreamDefaultReader
传输数据。
strategy
<Object>highWaterMark
<number> 应用背压之前的最大内部队列大小。size
<Function> 用于标识每个数据块大小的用户定义的函数。
readableStream.locked
#
- 类型: <boolean> 如果此 <ReadableStream> 存在活动的读取器,则设置为
true
。
默认情况下,readableStream.locked
属性为 false
,当存在活动的读取器正在消耗流的数据时,会切换为 true
。
readableStream.getReader([options])
#
options
<Object>mode
<string>'byob'
或undefined
- 返回: <ReadableStreamDefaultReader> | <ReadableStreamBYOBReader>
import { ReadableStream } from 'node:stream/web';
const stream = new ReadableStream();
const reader = stream.getReader();
console.log(await reader.read());
const { ReadableStream } = require('node:stream/web');
const stream = new ReadableStream();
const reader = stream.getReader();
reader.read().then(console.log);
导致 readableStream.locked
为 true
。
readableStream.pipeThrough(transform[, options])
#
transform
<Object>readable
<ReadableStream>ReadableStream
,transform.writable
会将它从这个ReadableStream
接收到的、可能被修改的数据推送到此流中。writable
<WritableStream> 此ReadableStream
的数据将被写入的WritableStream
。
options
<Object>preventAbort
<boolean> 当为true
时,此ReadableStream
中的错误不会导致transform.writable
被中止。preventCancel
<boolean> 当为true
时,目标transform.writable
中的错误不会导致此ReadableStream
被取消。preventClose
<boolean> 当为true
时,关闭此ReadableStream
不会导致transform.writable
被关闭。signal
<AbortSignal> 允许使用 <AbortController> 取消数据传输。
- 返回: 来自
transform.readable
的 <ReadableStream>。
将此 <ReadableStream> 连接到 transform
参数中提供的一对 <ReadableStream> 和 <WritableStream>,以便将来自此 <ReadableStream> 的数据写入 transform.writable
,可能经过转换,然后推送到 transform.readable
。配置好管道后,将返回 transform.readable
。
当管道操作处于活动状态时,导致 readableStream.locked
为 true
。
import {
ReadableStream,
TransformStream,
} from 'node:stream/web';
const stream = new ReadableStream({
start(controller) {
controller.enqueue('a');
},
});
const transform = new TransformStream({
transform(chunk, controller) {
controller.enqueue(chunk.toUpperCase());
},
});
const transformedStream = stream.pipeThrough(transform);
for await (const chunk of transformedStream)
console.log(chunk);
// Prints: A
const {
ReadableStream,
TransformStream,
} = require('node:stream/web');
const stream = new ReadableStream({
start(controller) {
controller.enqueue('a');
},
});
const transform = new TransformStream({
transform(chunk, controller) {
controller.enqueue(chunk.toUpperCase());
},
});
const transformedStream = stream.pipeThrough(transform);
(async () => {
for await (const chunk of transformedStream)
console.log(chunk);
// Prints: A
})();
readableStream.pipeTo(destination[, options])
#
destination
<WritableStream> 此ReadableStream
的数据将被写入的 <WritableStream>。options
<Object>preventAbort
<boolean> 当为true
时,此ReadableStream
中的错误不会导致destination
被中止。preventCancel
<boolean> 当为true
时,destination
中的错误不会导致此ReadableStream
被取消。preventClose
<boolean> 当为true
时,关闭此ReadableStream
不会导致destination
被关闭。signal
<AbortSignal> 允许使用 <AbortController> 取消数据传输。
- 返回: 一个 Promise,用
undefined
兑现
当管道操作处于活动状态时,导致 readableStream.locked
为 true
。
readableStream.tee()
#
返回一对新的 <ReadableStream> 实例,此 ReadableStream
的数据将被转发到它们。每个实例都将接收相同的数据。
导致 readableStream.locked
为 true
。
readableStream.values([options])
#
options
<Object>preventCancel
<boolean> 当为true
时,防止当异步迭代器突然终止时关闭 <ReadableStream>。 默认值:false
。
创建并返回一个可用于消耗此 ReadableStream
数据的异步迭代器。
当异步迭代器处于活动状态时,导致 readableStream.locked
为 true
。
import { Buffer } from 'node:buffer';
const stream = new ReadableStream(getSomeSource());
for await (const chunk of stream.values({ preventCancel: true }))
console.log(Buffer.from(chunk).toString());
异步迭代#
<ReadableStream> 对象支持使用 for await
语法的异步迭代器协议。
import { Buffer } from 'node:buffer';
const stream = new ReadableStream(getSomeSource());
for await (const chunk of stream)
console.log(Buffer.from(chunk).toString());
异步迭代器将消耗 <ReadableStream> 直到它终止。
默认情况下,如果异步迭代器提前退出(通过 break
、return
或 throw
),则 <ReadableStream> 将被关闭。 要防止自动关闭 <ReadableStream>,请使用 readableStream.values()
方法来获取异步迭代器并将 preventCancel
选项设置为 true
。
<ReadableStream> 不能被锁定(也就是说,它不能有现有的活动读取器)。 在异步迭代期间,<ReadableStream> 将被锁定。
使用 postMessage()
传输#
可以使用 <MessagePort> 传输 <ReadableStream> 实例。
const stream = new ReadableStream(getReadableSourceSomehow());
const { port1, port2 } = new MessageChannel();
port1.onmessage = ({ data }) => {
data.getReader().read().then((chunk) => {
console.log(chunk);
});
};
port2.postMessage(stream, [stream]);
ReadableStream.from(iterable)
#
iterable
<Iterable> 实现Symbol.asyncIterator
或Symbol.iterator
可迭代协议的对象。
一个实用方法,用于从可迭代对象创建一个新的 <ReadableStream>。
import { ReadableStream } from 'node:stream/web';
async function* asyncIterableGenerator() {
yield 'a';
yield 'b';
yield 'c';
}
const stream = ReadableStream.from(asyncIterableGenerator());
for await (const chunk of stream)
console.log(chunk); // Prints: 'a', 'b', 'c'
const { ReadableStream } = require('node:stream/web');
async function* asyncIterableGenerator() {
yield 'a';
yield 'b';
yield 'c';
}
(async () => {
const stream = ReadableStream.from(asyncIterableGenerator());
for await (const chunk of stream)
console.log(chunk); // Prints: 'a', 'b', 'c'
})();
要将生成的 <ReadableStream> 管道传输到 <WritableStream> 中,<Iterable> 应该生成一系列 <Buffer>、<TypedArray> 或 <DataView> 对象。
import { ReadableStream } from 'node:stream/web';
import { Buffer } from 'node:buffer';
async function* asyncIterableGenerator() {
yield Buffer.from('a');
yield Buffer.from('b');
yield Buffer.from('c');
}
const stream = ReadableStream.from(asyncIterableGenerator());
await stream.pipeTo(createWritableStreamSomehow());
const { ReadableStream } = require('node:stream/web');
const { Buffer } = require('node:buffer');
async function* asyncIterableGenerator() {
yield Buffer.from('a');
yield Buffer.from('b');
yield Buffer.from('c');
}
const stream = ReadableStream.from(asyncIterableGenerator());
(async () => {
await stream.pipeTo(createWritableStreamSomehow());
})();
类: ReadableStreamDefaultReader
#
默认情况下,调用不带参数的 readableStream.getReader()
将返回 ReadableStreamDefaultReader
的一个实例。 默认读取器将通过流传递的数据块视为不透明值,这允许 <ReadableStream> 处理通常任何 JavaScript 值。
new ReadableStreamDefaultReader(stream)
#
stream
<ReadableStream>
创建一个新的 <ReadableStreamDefaultReader>,它被锁定到给定的 <ReadableStream>。
readableStreamDefaultReader.cancel([reason])
#
reason
<any>- 返回:使用
undefined
兑现的 Promise。
取消 <ReadableStream> 并返回一个 Promise,当底层流已被取消时,该 Promise 将被兑现。
readableStreamDefaultReader.closed
#
- 类型: <Promise> 当关联的 <ReadableStream> 关闭时,用
undefined
兑现;如果流出错或在流完成关闭之前释放了读取器的锁,则拒绝该 Promise。
readableStreamDefaultReader.read()
#
从底层 <ReadableStream> 请求下一个数据块,并返回一个 Promise,一旦数据可用,该 Promise 就会被兑现。
readableStreamDefaultReader.releaseLock()
#
释放此读取器对底层 <ReadableStream> 的锁定。
类: ReadableStreamBYOBReader
#
ReadableStreamBYOBReader
是面向字节的 <ReadableStream> 的替代消费者(当创建 ReadableStream
时,这些流的 underlyingSource.type
设置为等于 'bytes'
)。
BYOB
是 "bring your own buffer" 的缩写。 这是一种模式,可以更有效地读取面向字节的数据,从而避免不必要的复制。
import {
open,
} from 'node:fs/promises';
import {
ReadableStream,
} from 'node:stream/web';
import { Buffer } from 'node:buffer';
class Source {
type = 'bytes';
autoAllocateChunkSize = 1024;
async start(controller) {
this.file = await open(new URL(import.meta.url));
this.controller = controller;
}
async pull(controller) {
const view = controller.byobRequest?.view;
const {
bytesRead,
} = await this.file.read({
buffer: view,
offset: view.byteOffset,
length: view.byteLength,
});
if (bytesRead === 0) {
await this.file.close();
this.controller.close();
}
controller.byobRequest.respond(bytesRead);
}
}
const stream = new ReadableStream(new Source());
async function read(stream) {
const reader = stream.getReader({ mode: 'byob' });
const chunks = [];
let result;
do {
result = await reader.read(Buffer.alloc(100));
if (result.value !== undefined)
chunks.push(Buffer.from(result.value));
} while (!result.done);
return Buffer.concat(chunks);
}
const data = await read(stream);
console.log(Buffer.from(data).toString());
new ReadableStreamBYOBReader(stream)
#
stream
<ReadableStream>
创建一个新的 ReadableStreamBYOBReader
,它被锁定到给定的 <ReadableStream>。
readableStreamBYOBReader.cancel([reason])
#
reason
<any>- 返回:使用
undefined
兑现的 Promise。
取消 <ReadableStream> 并返回一个 Promise,当底层流已被取消时,该 Promise 将被兑现。
readableStreamBYOBReader.closed
#
- 类型: <Promise> 当关联的 <ReadableStream> 关闭时,用
undefined
兑现;如果流出错或在流完成关闭之前释放了读取器的锁,则拒绝该 Promise。
readableStreamBYOBReader.read(view[, options])
#
view
<Buffer> | <TypedArray> | <DataView>options
<Object>min
<number> 如果设置了此选项,则返回的 Promise 只会在min
个元素可用后立即被兑现。 如果未设置,则当至少有一个元素可用时,该 Promise 就会兑现。
- 返回: 一个 Promise,用一个对象兑现
value
<TypedArray> | <DataView>done
<boolean>
从底层 <ReadableStream> 请求下一个数据块,并返回一个 Promise,一旦数据可用,该 Promise 就会被兑现。
不要将池化的 <Buffer> 对象实例传递给此方法。 池化的 Buffer
对象是使用 Buffer.allocUnsafe()
或 Buffer.from()
创建的,或者通常由各种 node:fs
模块回调返回。 这些类型的 Buffer
使用共享的底层 <ArrayBuffer> 对象,该对象包含所有池化的 Buffer
实例中的所有数据。 当将 Buffer
、<TypedArray> 或 <DataView> 传递给 readableStreamBYOBReader.read()
时,该视图的底层 ArrayBuffer
会被分离,从而使可能存在于该 ArrayBuffer
上的所有现有视图失效。 这可能会给您的应用程序带来灾难性的后果。
readableStreamBYOBReader.releaseLock()
#
释放此读取器对底层 <ReadableStream> 的锁定。
类: ReadableStreamDefaultController
#
每个 <ReadableStream> 都有一个控制器,负责流的队列的内部状态和管理。 ReadableStreamDefaultController
是非面向字节的 ReadableStream
的默认控制器实现。
readableStreamDefaultController.close()
#
关闭与此控制器关联的 <ReadableStream>。
类: ReadableByteStreamController
#
每个 <ReadableStream> 都有一个控制器,负责流的队列的内部状态和管理。 ReadableByteStreamController
适用于面向字节的 ReadableStream
。
readableByteStreamController.byobRequest
#
readableByteStreamController.close()
#
关闭与此控制器关联的 <ReadableStream>。
readableByteStreamController.enqueue(chunk)
#
chunk
: <Buffer> | <TypedArray> | <DataView>
将新的数据块追加到 <ReadableStream> 的队列中。
类: ReadableStreamBYOBRequest
#
当在面向字节的流中使用 ReadableByteStreamController
,以及在使用 ReadableStreamBYOBReader
时,readableByteStreamController.byobRequest
属性提供对表示当前读取请求的 ReadableStreamBYOBRequest
实例的访问。 该对象用于访问已提供的用于填充读取请求的 ArrayBuffer
/TypedArray
,并提供用于发出已提供数据的信号的方法。
readableStreamBYOBRequest.respond(bytesWritten)
#
bytesWritten
<number>
发出信号,表示已将 bytesWritten
个字节写入 readableStreamBYOBRequest.view
。
readableStreamBYOBRequest.respondWithNewView(view)
#
view
<Buffer> | <TypedArray> | <DataView>
发出信号,表示已使用写入新 Buffer
、TypedArray
或 DataView
的字节来满足请求。
readableStreamBYOBRequest.view
#
- 类型: <Buffer> | <TypedArray> | <DataView>
类: WritableStream
#
WritableStream
是流数据发送到的目的地。
import {
WritableStream,
} from 'node:stream/web';
const stream = new WritableStream({
write(chunk) {
console.log(chunk);
},
});
await stream.getWriter().write('Hello World');
new WritableStream([underlyingSink[, strategy]])
#
underlyingSink
<Object>start
<Function> 用户定义的函数,在创建WritableStream
时立即调用。controller
<WritableStreamDefaultController>- 返回:
undefined
或使用undefined
兑现的 Promise。
write
<Function> 用户定义的函数,当数据块写入WritableStream
时调用。chunk
<any>controller
<WritableStreamDefaultController>- 返回:使用
undefined
兑现的 Promise。
close
<Function> 用户定义的函数,在WritableStream
关闭时调用。- 返回:使用
undefined
兑现的 Promise。
- 返回:使用
abort
<Function> 用户定义的函数,用于突然关闭WritableStream
。reason
<any>- 返回:使用
undefined
兑现的 Promise。
type
<any>type
选项保留供将来使用,并且必须未定义。
strategy
<Object>highWaterMark
<number> 应用背压之前的最大内部队列大小。size
<Function> 用于标识每个数据块大小的用户定义的函数。
writableStream.abort([reason])
#
reason
<any>- 返回:使用
undefined
兑现的 Promise。
突然终止 WritableStream
。 所有排队的写入都将被取消,并且与其关联的 Promise 将被拒绝。
writableStream.getWriter()
#
创建并返回一个新的写入器实例,该实例可用于将数据写入 WritableStream
。
writableStream.locked
#
- 类型: <boolean>
默认情况下,writableStream.locked
属性为 false
,并且在有活动的写入器附加到此 WritableStream
时,它会切换为 true
。
使用 postMessage() 传输#
可以使用 <MessagePort> 传输 <WritableStream> 实例。
const stream = new WritableStream(getWritableSinkSomehow());
const { port1, port2 } = new MessageChannel();
port1.onmessage = ({ data }) => {
data.getWriter().write('hello');
};
port2.postMessage(stream, [stream]);
类: WritableStreamDefaultWriter
#
new WritableStreamDefaultWriter(stream)
#
stream
<WritableStream>
创建一个新的 WritableStreamDefaultWriter
,该写入器已锁定到给定的 WritableStream
。
writableStreamDefaultWriter.abort([reason])
#
reason
<any>- 返回:使用
undefined
兑现的 Promise。
突然终止 WritableStream
。 所有排队的写入都将被取消,并且与其关联的 Promise 将被拒绝。
writableStreamDefaultWriter.closed
#
- 类型: <Promise> 当关联的 <WritableStream> 关闭时,会用
undefined
履行;如果流出错或写入器的锁在流完成关闭之前被释放,则会被拒绝。
writableStreamDefaultWriter.releaseLock()
#
释放此写入器对底层 <ReadableStream> 的锁定。
writableStreamDefaultWriter.write([chunk])
#
chunk
: <any>- 返回:使用
undefined
兑现的 Promise。
将一个新的数据块追加到 <WritableStream> 的队列中。
类:WritableStreamDefaultController
#
WritableStreamDefaultController
管理 <WritableStream> 的内部状态。
writableStreamDefaultController.error([error])
#
error
<any>
由用户代码调用,以指示在处理 WritableStream
数据时发生了错误。 调用后,<WritableStream> 将被中止,并且当前正在进行的写入将被取消。
writableStreamDefaultController.signal
#
- 类型:<AbortSignal> 一个
AbortSignal
,当 <WritableStream> 被中止时,可用于取消挂起的写入或关闭操作。
类:TransformStream
#
TransformStream
由一个 <ReadableStream> 和一个 <WritableStream> 组成,它们连接在一起,以便写入 WritableStream
的数据在被推入 ReadableStream
的队列之前被接收,并可能被转换。
import {
TransformStream,
} from 'node:stream/web';
const transform = new TransformStream({
transform(chunk, controller) {
controller.enqueue(chunk.toUpperCase());
},
});
await Promise.all([
transform.writable.getWriter().write('A'),
transform.readable.getReader().read(),
]);
new TransformStream([transformer[, writableStrategy[, readableStrategy]]])
#
transformer
<Object>start
<Function> 一个用户定义的函数,在创建TransformStream
时立即调用。controller
<TransformStreamDefaultController>- 返回:
undefined
或一个以undefined
履行的 promise
transform
<Function> 一个用户定义的函数,它接收并可能修改写入transformStream.writable
的数据块,然后再将其转发到transformStream.readable
。chunk
<any>controller
<TransformStreamDefaultController>- 返回:使用
undefined
兑现的 Promise。
flush
<Function> 一个用户定义的函数,在TransformStream
的可写端关闭之前立即调用,表示转换过程的结束。controller
<TransformStreamDefaultController>- 返回:使用
undefined
兑现的 Promise。
readableType
<any>readableType
选项保留供将来使用,并且*必须*是undefined
。writableType
<any>writableType
选项保留供将来使用,并且*必须*是undefined
。
writableStrategy
<Object>highWaterMark
<number> 应用背压之前的最大内部队列大小。size
<Function> 用于标识每个数据块大小的用户定义的函数。
readableStrategy
<Object>highWaterMark
<number> 应用背压之前的最大内部队列大小。size
<Function> 用于标识每个数据块大小的用户定义的函数。
transformStream.readable
#
transformStream.writable
#
使用 postMessage() 传输#
可以使用 <MessagePort> 传输 <TransformStream> 实例。
const stream = new TransformStream();
const { port1, port2 } = new MessageChannel();
port1.onmessage = ({ data }) => {
const { writable, readable } = data;
// ...
};
port2.postMessage(stream, [stream]);
类:TransformStreamDefaultController
#
TransformStreamDefaultController
管理 TransformStream
的内部状态。
transformStreamDefaultController.error([reason])
#
reason
<any>
向可读端和可写端发出信号,表明在处理转换数据时发生了错误,导致两端都突然关闭。
transformStreamDefaultController.terminate()
#
关闭传输的可读端,并导致可写端因错误而突然关闭。
类:ByteLengthQueuingStrategy
#
byteLengthQueuingStrategy.size
#
- 类型:<Function>
类:CountQueuingStrategy
#
countQueuingStrategy.size
#
- 类型:<Function>
类:TextEncoderStream
#
new TextEncoderStream()
#
创建一个新的 TextEncoderStream
实例。
textEncoderStream.readable
#
textEncoderStream.writable
#
类:TextDecoderStream
#
new TextDecoderStream([encoding[, options]])
#
创建一个新的 TextDecoderStream
实例。
textDecoderStream.readable
#
textDecoderStream.writable
#
实用工具消费者#
实用工具消费者函数提供使用流的通用选项。
它们使用以下方式访问:
import {
arrayBuffer,
blob,
buffer,
json,
text,
} from 'node:stream/consumers';
const {
arrayBuffer,
blob,
buffer,
json,
text,
} = require('node:stream/consumers');
streamConsumers.arrayBuffer(stream)
#
stream
<ReadableStream> | <stream.Readable> | <AsyncIterator>- 返回: <Promise> 使用包含流完整内容的
ArrayBuffer
完成。
import { arrayBuffer } from 'node:stream/consumers';
import { Readable } from 'node:stream';
import { TextEncoder } from 'node:util';
const encoder = new TextEncoder();
const dataArray = encoder.encode('hello world from consumers!');
const readable = Readable.from(dataArray);
const data = await arrayBuffer(readable);
console.log(`from readable: ${data.byteLength}`);
// Prints: from readable: 76
const { arrayBuffer } = require('node:stream/consumers');
const { Readable } = require('node:stream');
const { TextEncoder } = require('node:util');
const encoder = new TextEncoder();
const dataArray = encoder.encode('hello world from consumers!');
const readable = Readable.from(dataArray);
arrayBuffer(readable).then((data) => {
console.log(`from readable: ${data.byteLength}`);
// Prints: from readable: 76
});
streamConsumers.blob(stream)
#
stream
<ReadableStream> | <stream.Readable> | <AsyncIterator>- 返回: <Promise> 使用包含流完整内容的 <Blob> 完成。
import { blob } from 'node:stream/consumers';
const dataBlob = new Blob(['hello world from consumers!']);
const readable = dataBlob.stream();
const data = await blob(readable);
console.log(`from readable: ${data.size}`);
// Prints: from readable: 27
const { blob } = require('node:stream/consumers');
const dataBlob = new Blob(['hello world from consumers!']);
const readable = dataBlob.stream();
blob(readable).then((data) => {
console.log(`from readable: ${data.size}`);
// Prints: from readable: 27
});
streamConsumers.buffer(stream)
#
stream
<ReadableStream> | <stream.Readable> | <AsyncIterator>- 返回: <Promise> 使用包含流完整内容的 <Buffer> 完成。
import { buffer } from 'node:stream/consumers';
import { Readable } from 'node:stream';
import { Buffer } from 'node:buffer';
const dataBuffer = Buffer.from('hello world from consumers!');
const readable = Readable.from(dataBuffer);
const data = await buffer(readable);
console.log(`from readable: ${data.length}`);
// Prints: from readable: 27
const { buffer } = require('node:stream/consumers');
const { Readable } = require('node:stream');
const { Buffer } = require('node:buffer');
const dataBuffer = Buffer.from('hello world from consumers!');
const readable = Readable.from(dataBuffer);
buffer(readable).then((data) => {
console.log(`from readable: ${data.length}`);
// Prints: from readable: 27
});
streamConsumers.json(stream)
#
stream
<ReadableStream> | <stream.Readable> | <AsyncIterator>- 返回: <Promise> 使用流的内容完成,该内容被解析为 UTF-8 编码的字符串,然后通过
JSON.parse()
传递。
import { json } from 'node:stream/consumers';
import { Readable } from 'node:stream';
const items = Array.from(
{
length: 100,
},
() => ({
message: 'hello world from consumers!',
}),
);
const readable = Readable.from(JSON.stringify(items));
const data = await json(readable);
console.log(`from readable: ${data.length}`);
// Prints: from readable: 100
const { json } = require('node:stream/consumers');
const { Readable } = require('node:stream');
const items = Array.from(
{
length: 100,
},
() => ({
message: 'hello world from consumers!',
}),
);
const readable = Readable.from(JSON.stringify(items));
json(readable).then((data) => {
console.log(`from readable: ${data.length}`);
// Prints: from readable: 100
});
streamConsumers.text(stream)
#
stream
<ReadableStream> | <stream.Readable> | <AsyncIterator>- 返回: <Promise> 使用流的内容完成,该内容被解析为 UTF-8 编码的字符串。
import { text } from 'node:stream/consumers';
import { Readable } from 'node:stream';
const readable = Readable.from('Hello world from consumers!');
const data = await text(readable);
console.log(`from readable: ${data.length}`);
// Prints: from readable: 27
const { text } = require('node:stream/consumers');
const { Readable } = require('node:stream');
const readable = Readable.from('Hello world from consumers!');
text(readable).then((data) => {
console.log(`from readable: ${data.length}`);
// Prints: from readable: 27
});