Web 流 API#

稳定性:2 - 稳定

WHATWG 流标准 的实现。

概述#

WHATWG 流标准(或“web 流”)定义了一个用于处理流数据的 API。它类似于 Node.js API,但出现时间较晚,并且已成为跨许多 JavaScript 环境流数据的“标准”API。

有三种主要类型的对象

  • ReadableStream - 表示流数据的来源。
  • WritableStream - 表示流数据的目标。
  • TransformStream - 表示用于转换流数据的算法。

示例 ReadableStream#

此示例创建了一个简单的 ReadableStream,它每秒推送一次当前的 performance.now() 时间戳,永远持续下去。异步可迭代对象用于从流中读取数据。

import {
  ReadableStream,
} from 'node:stream/web';

import {
  setInterval as every,
} from 'node:timers/promises';

import {
  performance,
} from 'node:perf_hooks';

const SECOND = 1000;

const stream = new ReadableStream({
  async start(controller) {
    for await (const _ of every(SECOND))
      controller.enqueue(performance.now());
  },
});

for await (const value of stream)
  console.log(value);const {
  ReadableStream,
} = require('node:stream/web');

const {
  setInterval: every,
} = require('node:timers/promises');

const {
  performance,
} = require('node:perf_hooks');

const SECOND = 1000;

const stream = new ReadableStream({
  async start(controller) {
    for await (const _ of every(SECOND))
      controller.enqueue(performance.now());
  },
});

(async () => {
  for await (const value of stream)
    console.log(value);
})();

API#

类: ReadableStream#

new ReadableStream([underlyingSource [, strategy]])#
  • underlyingSource <对象>
    • start <函数> 当创建 ReadableStream 时立即调用的用户定义函数。
    • pull <函数>ReadableStream 内部队列未满时重复调用的用户定义函数。该操作可以是同步或异步的。如果是异步的,则该函数将不会再次被调用,直到先前返回的 Promise 完成。
    • cancel <函数>ReadableStream 被取消时调用的用户定义函数。
      • reason <任何>
      • 返回值: 一个以 undefined 为值的已完成的 Promise。
    • type <字符串> 必须是 'bytes'undefined
    • autoAllocateChunkSize <数字> 仅在 type 等于 'bytes' 时使用。当设置为非零值时,会自动为 ReadableByteStreamController.byobRequest 分配一个视图缓冲区。当未设置时,必须使用流的内部队列通过默认读取器 ReadableStreamDefaultReader 传输数据。
  • strategy <对象>
    • highWaterMark <数字> 应用背压之前内部队列的最大大小。
    • size <函数> 用于识别每个数据块大小的用户定义函数。
readableStream.locked#

readableStream.locked 属性默认值为 false,当有活动的读取器正在使用流数据时,它会切换到 true

readableStream.cancel([reason])#
  • reason <任何>
  • 返回值: 一旦取消完成,就会用 undefined fulfilled 的 Promise。
readableStream.getReader([options])#
import { ReadableStream } from 'node:stream/web';

const stream = new ReadableStream();

const reader = stream.getReader();

console.log(await reader.read());const { ReadableStream } = require('node:stream/web');

const stream = new ReadableStream();

const reader = stream.getReader();

reader.read().then(console.log);

导致 readableStream.lockedtrue

readableStream.pipeThrough(transform[, options])#
  • transform <Object>
    • readable <ReadableStream> transform.writable 将把从该 ReadableStream 收到的可能已修改的数据推送到该 ReadableStream
    • writable <WritableStream>ReadableStream 的数据将写入该 WritableStream
  • options <Object>
    • preventAbort <boolean> 当为 true 时,该 ReadableStream 中的错误不会导致 transform.writable 被中止。
    • preventCancel <boolean> 当为 true 时,目标 transform.writable 中的错误不会导致该 ReadableStream 被取消。
    • preventClose <boolean> 当为 true 时,关闭该 ReadableStream 不会导致 transform.writable 被关闭。
    • signal <AbortSignal> 允许使用 <AbortController> 取消数据传输。
  • 返回值:<ReadableStream> 来自 transform.readable

将此 <ReadableStream> 连接到 transform 参数中提供的 <ReadableStream><WritableStream> 对,以便来自此 <ReadableStream> 的数据写入 transform.writable,可能进行转换,然后推送到 transform.readable。配置管道后,将返回 transform.readable

在管道操作处于活动状态时,导致 readableStream.lockedtrue

import {
  ReadableStream,
  TransformStream,
} from 'node:stream/web';

const stream = new ReadableStream({
  start(controller) {
    controller.enqueue('a');
  },
});

const transform = new TransformStream({
  transform(chunk, controller) {
    controller.enqueue(chunk.toUpperCase());
  },
});

const transformedStream = stream.pipeThrough(transform);

for await (const chunk of transformedStream)
  console.log(chunk);
  // Prints: Aconst {
  ReadableStream,
  TransformStream,
} = require('node:stream/web');

const stream = new ReadableStream({
  start(controller) {
    controller.enqueue('a');
  },
});

const transform = new TransformStream({
  transform(chunk, controller) {
    controller.enqueue(chunk.toUpperCase());
  },
});

const transformedStream = stream.pipeThrough(transform);

(async () => {
  for await (const chunk of transformedStream)
    console.log(chunk);
    // Prints: A
})();
readableStream.pipeTo(destination[, options])#
  • destination <WritableStream> 一个 <WritableStream>,将向其写入此 ReadableStream 的数据。
  • options <Object>
    • preventAbort <boolean> 当为 true 时,此 ReadableStream 中的错误不会导致 destination 被中止。
    • preventCancel <boolean> 当为 true 时,destination 中的错误不会导致此 ReadableStream 被取消。
    • preventClose <boolean> 当为 true 时,关闭此 ReadableStream 不会导致 destination 被关闭。
    • signal <AbortSignal> 允许使用 <AbortController> 取消数据传输。
  • 返回值:一个以 undefined fulfilled 的 promise

在管道操作处于活动状态时,导致 readableStream.lockedtrue

readableStream.tee()#

返回一对新的 <ReadableStream> 实例,将向其转发此 ReadableStream 的数据。每个实例都将接收相同的数据。

导致 readableStream.lockedtrue

readableStream.values([options])#

创建并返回一个可用于使用此 ReadableStream 的数据的异步迭代器。

在异步迭代器处于活动状态时,导致 readableStream.lockedtrue

import { Buffer } from 'node:buffer';

const stream = new ReadableStream(getSomeSource());

for await (const chunk of stream.values({ preventCancel: true }))
  console.log(Buffer.from(chunk).toString()); 
异步迭代#

可读流对象 (<ReadableStream>) 使用 for await 语法支持异步迭代器协议。

import { Buffer } from 'node:buffer';

const stream = new ReadableStream(getSomeSource());

for await (const chunk of stream)
  console.log(Buffer.from(chunk).toString()); 

异步迭代器将消耗可读流 (<ReadableStream>) 直到它终止。

默认情况下,如果异步迭代器过早退出(通过 breakreturnthrow),可读流 (<ReadableStream>) 将被关闭。为了防止可读流 (<ReadableStream>) 自动关闭,请使用 readableStream.values() 方法获取异步迭代器并将 preventCancel 选项设置为 true

可读流 (<ReadableStream>) 必须没有被锁定(即,它不能拥有现有的活动读取器)。在异步迭代期间,可读流 (<ReadableStream>) 将被锁定。

使用 postMessage() 传输#

可读流 (<ReadableStream>) 实例可以使用消息端口 (<MessagePort>) 传输。

const stream = new ReadableStream(getReadableSourceSomehow());

const { port1, port2 } = new MessageChannel();

port1.onmessage = ({ data }) => {
  data.getReader().read().then((chunk) => {
    console.log(chunk);
  });
};

port2.postMessage(stream, [stream]); 

ReadableStream.from(iterable)#

  • iterable <Iterable> 实现 Symbol.asyncIteratorSymbol.iterator 可迭代协议的对象。

一个实用方法,用于从可迭代对象创建新的可读流 (<ReadableStream>)。

import { ReadableStream } from 'node:stream/web';

async function* asyncIterableGenerator() {
  yield 'a';
  yield 'b';
  yield 'c';
}

const stream = ReadableStream.from(asyncIterableGenerator());

for await (const chunk of stream)
  console.log(chunk); // Prints: 'a', 'b', 'c'const { ReadableStream } = require('node:stream/web');

async function* asyncIterableGenerator() {
  yield 'a';
  yield 'b';
  yield 'c';
}

(async () => {
  const stream = ReadableStream.from(asyncIterableGenerator());

  for await (const chunk of stream)
    console.log(chunk); // Prints: 'a', 'b', 'c'
})();

类:ReadableStreamDefaultReader#

默认情况下,在没有参数的情况下调用 readableStream.getReader() 将返回 ReadableStreamDefaultReader 的实例。默认读取器将流中传递的数据块视为不透明值,这允许可读流 (<ReadableStream>) 与任何 JavaScript 值一起使用。

new ReadableStreamDefaultReader(stream)#

创建一个新的可读流默认读取器 (<ReadableStreamDefaultReader>),它被锁定到给定的可读流 (<ReadableStream>)。

readableStreamDefaultReader.cancel([reason])#
  • reason <任何>
  • 返回值: 一个以 undefined 为值的已完成的 Promise。

取消可读流 (<ReadableStream>) 并返回一个承诺,该承诺在底层流被取消时完成。

readableStreamDefaultReader.closed#
  • 类型:<Promise> 当关联的 <ReadableStream> 关闭时,将以 undefined 作为已完成状态,如果流出现错误或在流完成关闭之前释放了读者的锁,则将被拒绝。
readableStreamDefaultReader.read()#
  • 返回值:一个以对象作为已完成状态的 Promise

从底层的 <ReadableStream> 请求下一个数据块,并返回一个 Promise,该 Promise 在数据可用时以数据作为已完成状态。

readableStreamDefaultReader.releaseLock()#

释放此读取器对底层 <ReadableStream> 的锁。

类:ReadableStreamBYOBReader#

ReadableStreamBYOBReader 是面向字节的 <ReadableStream>(那些在创建 ReadableStream 时将 underlyingSource.type 设置为 'bytes' 的流)的替代消费者。

BYOB 是“自带缓冲区”的缩写。这是一种模式,允许更有效地读取面向字节的数据,避免不必要的复制。

import {
  open,
} from 'node:fs/promises';

import {
  ReadableStream,
} from 'node:stream/web';

import { Buffer } from 'node:buffer';

class Source {
  type = 'bytes';
  autoAllocateChunkSize = 1024;

  async start(controller) {
    this.file = await open(new URL(import.meta.url));
    this.controller = controller;
  }

  async pull(controller) {
    const view = controller.byobRequest?.view;
    const {
      bytesRead,
    } = await this.file.read({
      buffer: view,
      offset: view.byteOffset,
      length: view.byteLength,
    });

    if (bytesRead === 0) {
      await this.file.close();
      this.controller.close();
    }
    controller.byobRequest.respond(bytesRead);
  }
}

const stream = new ReadableStream(new Source());

async function read(stream) {
  const reader = stream.getReader({ mode: 'byob' });

  const chunks = [];
  let result;
  do {
    result = await reader.read(Buffer.alloc(100));
    if (result.value !== undefined)
      chunks.push(Buffer.from(result.value));
  } while (!result.done);

  return Buffer.concat(chunks);
}

const data = await read(stream);
console.log(Buffer.from(data).toString()); 
new ReadableStreamBYOBReader(stream)#

创建一个新的 ReadableStreamBYOBReader,该读取器被锁定到给定的 <ReadableStream>

readableStreamBYOBReader.cancel([reason])#
  • reason <任何>
  • 返回值: 一个以 undefined 为值的已完成的 Promise。

取消可读流 (<ReadableStream>) 并返回一个承诺,该承诺在底层流被取消时完成。

readableStreamBYOBReader.closed#
  • 类型:<Promise> 当关联的 <ReadableStream> 关闭时,将以 undefined 作为已完成状态,如果流出现错误或在流完成关闭之前释放了读者的锁,则将被拒绝。
readableStreamBYOBReader.read(view[, options])#

从底层的 <ReadableStream> 请求下一个数据块,并返回一个 Promise,该 Promise 在数据可用时以数据作为已完成状态。

不要将池化的 <Buffer> 对象实例传递到此方法中。池化的 Buffer 对象是使用 Buffer.allocUnsafe()Buffer.from() 创建的,或者通常由各种 node:fs 模块回调返回。这些类型的 Buffer 使用一个共享的底层 <ArrayBuffer> 对象,该对象包含所有池化 Buffer 实例的所有数据。当将 Buffer<TypedArray><DataView> 传递到 readableStreamBYOBReader.read() 时,视图的底层 ArrayBuffer 将被分离,使所有可能存在于该 ArrayBuffer 上的现有视图失效。这对您的应用程序可能造成灾难性的后果。

readableStreamBYOBReader.releaseLock()#

释放此读取器对底层 <ReadableStream> 的锁。

类:ReadableStreamDefaultController#

每个 <ReadableStream> 都有一个控制器,负责流队列的内部状态和管理。ReadableStreamDefaultController 是对于非字节导向的 ReadableStream 的默认控制器实现。

readableStreamDefaultController.close()#

关闭与该控制器关联的 <ReadableStream>

readableStreamDefaultController.desiredSize#

返回要填充 <ReadableStream> 队列的剩余数据量。

readableStreamDefaultController.enqueue([chunk])#

将新的数据块追加到 <ReadableStream> 的队列中。

readableStreamDefaultController.error([error])#

发出错误信号,导致 <ReadableStream> 发生错误并关闭。

类: ReadableByteStreamController#

每个 <ReadableStream> 都有一个控制器,负责流队列的内部状态和管理。ReadableByteStreamController 用于面向字节的 ReadableStream

readableByteStreamController.byobRequest#
readableByteStreamController.close()#

关闭与该控制器关联的 <ReadableStream>

readableByteStreamController.desiredSize#

返回要填充 <ReadableStream> 队列的剩余数据量。

readableByteStreamController.enqueue(chunk)#

将新的数据块追加到 <ReadableStream> 的队列中。

readableByteStreamController.error([error])#

发出错误信号,导致 <ReadableStream> 发生错误并关闭。

类: ReadableStreamBYOBRequest#

在面向字节的流中使用 ReadableByteStreamController 时,以及使用 ReadableStreamBYOBReader 时,readableByteStreamController.byobRequest 属性提供对 ReadableStreamBYOBRequest 实例的访问,该实例表示当前的读取请求。该对象用于获取对已提供用于读取请求填充的 ArrayBuffer/TypedArray 的访问权限,并提供用于发出已提供数据的信号的方法。

readableStreamBYOBRequest.respond(bytesWritten)#

表示已将 bytesWritten 个字节写入 readableStreamBYOBRequest.view

readableStreamBYOBRequest.respondWithNewView(view)#

表示请求已完成,并将字节写入新的 BufferTypedArrayDataView

readableStreamBYOBRequest.view#

类:WritableStream#

WritableStream 是一个流数据发送到的目的地。

import {
  WritableStream,
} from 'node:stream/web';

const stream = new WritableStream({
  write(chunk) {
    console.log(chunk);
  },
});

await stream.getWriter().write('Hello World'); 
new WritableStream([underlyingSink[, strategy]])#
  • underlyingSink <Object>
    • start <Function> 用户定义的函数,在创建 WritableStream 时立即调用。
    • write <Function> 用户定义的函数,当数据块写入 WritableStream 时调用。
    • close <Function> 用户定义的函数,在 WritableStream 关闭时调用。
      • 返回值: 一个以 undefined 为值的已完成的 Promise。
    • abort <Function> 一个用户定义的函数,用于突然关闭 WritableStream
      • reason <任何>
      • 返回值: 一个以 undefined 为值的已完成的 Promise。
    • type <any> type 选项保留供将来使用,并且必须为 undefined。
  • strategy <对象>
    • highWaterMark <数字> 应用背压之前内部队列的最大大小。
    • size <函数> 用于识别每个数据块大小的用户定义函数。
writableStream.abort([reason])#
  • reason <任何>
  • 返回值: 一个以 undefined 为值的已完成的 Promise。

突然终止 WritableStream。所有排队的写入将被取消,其关联的 Promise 将被拒绝。

writableStream.close()#
  • 返回值: 一个以 undefined 为值的已完成的 Promise。

当不再期望额外的写入时,关闭 WritableStream

writableStream.getWriter()#

创建并返回一个新的写入器实例,该实例可用于将数据写入 WritableStream

writableStream.locked#

writableStream.locked 属性默认情况下为 false,当有活动写入器附加到此 WritableStream 时,它将切换为 true

使用 postMessage() 传输#

一个 <WritableStream> 实例可以使用 <MessagePort> 传输。

const stream = new WritableStream(getWritableSinkSomehow());

const { port1, port2 } = new MessageChannel();

port1.onmessage = ({ data }) => {
  data.getWriter().write('hello');
};

port2.postMessage(stream, [stream]); 

类:WritableStreamDefaultWriter#

new WritableStreamDefaultWriter(stream)#

创建一个新的 WritableStreamDefaultWriter,它被锁定到给定的 WritableStream

writableStreamDefaultWriter.abort([reason])#
  • reason <任何>
  • 返回值: 一个以 undefined 为值的已完成的 Promise。

突然终止 WritableStream。所有排队的写入将被取消,其关联的 Promise 将被拒绝。

writableStreamDefaultWriter.close()#
  • 返回值: 一个以 undefined 为值的已完成的 Promise。

当不再期望额外的写入时,关闭 WritableStream

writableStreamDefaultWriter.closed#
  • 类型:<Promise> 当关联的 <WritableStream> 关闭时,将以 undefined 履行;如果流出现错误,或者写入器在流完成关闭之前释放了锁,则会拒绝。
writableStreamDefaultWriter.desiredSize#

填充 <WritableStream> 队列所需的数据量。

writableStreamDefaultWriter.ready#
  • 类型:<Promise> 当写入器准备好使用时,将以 undefined 履行。
writableStreamDefaultWriter.releaseLock()#

释放此写入器对底层 <ReadableStream> 的锁定。

writableStreamDefaultWriter.write([chunk])#
  • chunk: <any>
  • 返回值: 一个以 undefined 为值的已完成的 Promise。

将新的数据块追加到 <WritableStream> 的队列中。

类:WritableStreamDefaultController#

WritableStreamDefaultController 管理 <WritableStream> 的内部状态。

writableStreamDefaultController.error([error])#

由用户代码调用,以指示在处理 WritableStream 数据时发生了错误。调用时,<WritableStream> 将被中止,当前挂起的写入将被取消。

writableStreamDefaultController.signal#

类: TransformStream#

一个 TransformStream 由一个 <ReadableStream> 和一个 <WritableStream> 组成,它们之间相互连接,使得写入 WritableStream 的数据会被接收,并可能被转换,然后推送到 ReadableStream 的队列中。

import {
  TransformStream,
} from 'node:stream/web';

const transform = new TransformStream({
  transform(chunk, controller) {
    controller.enqueue(chunk.toUpperCase());
  },
});

await Promise.all([
  transform.writable.getWriter().write('A'),
  transform.readable.getReader().read(),
]); 
new TransformStream([transformer[, writableStrategy[, readableStrategy]]])#
  • transformer <Object>
    • start <Function>TransformStream 创建时立即调用的用户定义函数。
    • transform <Function> 一个用户定义函数,它接收并可能修改写入 transformStream.writable 的数据块,然后将其转发到 transformStream.readable
    • flush <Function> 一个用户定义函数,在 TransformStream 的可写端关闭之前立即调用,表示转换过程结束。
    • readableType <any> readableType 选项保留供将来使用,必须undefined
    • writableType <any> writableType 选项保留供将来使用,必须undefined
  • writableStrategy <Object>
    • highWaterMark <数字> 应用背压之前内部队列的最大大小。
    • size <函数> 用于识别每个数据块大小的用户定义函数。
  • readableStrategy <Object>
    • highWaterMark <数字> 应用背压之前内部队列的最大大小。
    • size <函数> 用于识别每个数据块大小的用户定义函数。
transformStream.readable#
transformStream.writable#
使用 postMessage() 传输#

一个 <TransformStream> 实例可以使用 <MessagePort> 传输。

const stream = new TransformStream();

const { port1, port2 } = new MessageChannel();

port1.onmessage = ({ data }) => {
  const { writable, readable } = data;
  // ...
};

port2.postMessage(stream, [stream]); 

类: TransformStreamDefaultController#

TransformStreamDefaultController 管理 TransformStream 的内部状态。

transformStreamDefaultController.desiredSize#

可读侧队列需要填充的数据量。

transformStreamDefaultController.enqueue([chunk])#

将数据块追加到可读侧队列。

transformStreamDefaultController.error([reason])#

向可读侧和可写侧发出信号,表明在处理转换数据时发生了错误,导致两侧突然关闭。

transformStreamDefaultController.terminate()#

关闭传输的可读侧,并导致可写侧因错误而突然关闭。

类: ByteLengthQueuingStrategy#

new ByteLengthQueuingStrategy(init)#
byteLengthQueuingStrategy.highWaterMark#
byteLengthQueuingStrategy.size#

类: CountQueuingStrategy#

new CountQueuingStrategy(init)#
countQueuingStrategy.highWaterMark#
countQueuingStrategy.size#

类: TextEncoderStream#

new TextEncoderStream()#

创建一个新的 TextEncoderStream 实例。

textEncoderStream.encoding#

TextEncoderStream 实例支持的编码。

textEncoderStream.readable#
textEncoderStream.writable#

类: TextDecoderStream#

new TextDecoderStream([encoding[, options]])#
  • encoding <string> 标识此 TextDecoder 实例支持的 encoding默认: 'utf-8'
  • options <Object>
    • fatal <boolean> 如果解码失败是致命的,则为 true
    • ignoreBOM <boolean>true 时,TextDecoderStream 将在解码结果中包含字节顺序标记。当 false 时,字节顺序标记将从输出中删除。此选项仅在 encoding'utf-8''utf-16be''utf-16le' 时使用。默认: false

创建一个新的 TextDecoderStream 实例。

textDecoderStream.encoding#

TextDecoderStream 实例支持的编码。

textDecoderStream.fatal#

如果解码错误导致抛出 TypeError,则该值为 true

textDecoderStream.ignoreBOM#

如果解码结果包含字节顺序标记,则该值为 true

textDecoderStream.readable#
textDecoderStream.writable#

类: CompressionStream#

new CompressionStream(format)#
  • format <string> 'deflate''deflate-raw''gzip' 之一。
compressionStream.readable#
compressionStream.writable#

类: DecompressionStream#

new DecompressionStream(format)#
  • format <string> 'deflate''deflate-raw''gzip' 之一。
decompressionStream.readable#
decompressionStream.writable#

实用程序消费者#

实用程序消费者函数提供了用于消费流的通用选项。

它们使用以下方式访问

import {
  arrayBuffer,
  blob,
  buffer,
  json,
  text,
} from 'node:stream/consumers';const {
  arrayBuffer,
  blob,
  buffer,
  json,
  text,
} = require('node:stream/consumers');
streamConsumers.arrayBuffer(stream)#
import { arrayBuffer } from 'node:stream/consumers';
import { Readable } from 'node:stream';
import { TextEncoder } from 'node:util';

const encoder = new TextEncoder();
const dataArray = encoder.encode('hello world from consumers!');

const readable = Readable.from(dataArray);
const data = await arrayBuffer(readable);
console.log(`from readable: ${data.byteLength}`);
// Prints: from readable: 76const { arrayBuffer } = require('node:stream/consumers');
const { Readable } = require('node:stream');
const { TextEncoder } = require('node:util');

const encoder = new TextEncoder();
const dataArray = encoder.encode('hello world from consumers!');
const readable = Readable.from(dataArray);
arrayBuffer(readable).then((data) => {
  console.log(`from readable: ${data.byteLength}`);
  // Prints: from readable: 76
});
streamConsumers.blob(stream)#
import { blob } from 'node:stream/consumers';

const dataBlob = new Blob(['hello world from consumers!']);

const readable = dataBlob.stream();
const data = await blob(readable);
console.log(`from readable: ${data.size}`);
// Prints: from readable: 27const { blob } = require('node:stream/consumers');

const dataBlob = new Blob(['hello world from consumers!']);

const readable = dataBlob.stream();
blob(readable).then((data) => {
  console.log(`from readable: ${data.size}`);
  // Prints: from readable: 27
});
streamConsumers.buffer(stream)#
import { buffer } from 'node:stream/consumers';
import { Readable } from 'node:stream';
import { Buffer } from 'node:buffer';

const dataBuffer = Buffer.from('hello world from consumers!');

const readable = Readable.from(dataBuffer);
const data = await buffer(readable);
console.log(`from readable: ${data.length}`);
// Prints: from readable: 27const { buffer } = require('node:stream/consumers');
const { Readable } = require('node:stream');
const { Buffer } = require('node:buffer');

const dataBuffer = Buffer.from('hello world from consumers!');

const readable = Readable.from(dataBuffer);
buffer(readable).then((data) => {
  console.log(`from readable: ${data.length}`);
  // Prints: from readable: 27
});
streamConsumers.json(stream)#
import { json } from 'node:stream/consumers';
import { Readable } from 'node:stream';

const items = Array.from(
  {
    length: 100,
  },
  () => ({
    message: 'hello world from consumers!',
  }),
);

const readable = Readable.from(JSON.stringify(items));
const data = await json(readable);
console.log(`from readable: ${data.length}`);
// Prints: from readable: 100const { json } = require('node:stream/consumers');
const { Readable } = require('node:stream');

const items = Array.from(
  {
    length: 100,
  },
  () => ({
    message: 'hello world from consumers!',
  }),
);

const readable = Readable.from(JSON.stringify(items));
json(readable).then((data) => {
  console.log(`from readable: ${data.length}`);
  // Prints: from readable: 100
});
streamConsumers.text(stream)#
import { text } from 'node:stream/consumers';
import { Readable } from 'node:stream';

const readable = Readable.from('Hello world from consumers!');
const data = await text(readable);
console.log(`from readable: ${data.length}`);
// Prints: from readable: 27const { text } = require('node:stream/consumers');
const { Readable } = require('node:stream');

const readable = Readable.from('Hello world from consumers!');
text(readable).then((data) => {
  console.log(`from readable: ${data.length}`);
  // Prints: from readable: 27
});