Web Streams API#

稳定性:2 - 稳定

WHATWG Streams 标准的实现。

概述#

WHATWG Streams 标准(或“web streams”)定义了一个用于处理流数据的 API。 它类似于 Node.js 的 Streams API,但出现较晚,并且已成为跨许多 JavaScript 环境流式传输数据的“标准”API。

有三种主要类型的对象

  • ReadableStream - 表示流数据的源。
  • WritableStream - 表示流数据的目标。
  • TransformStream - 表示转换流数据的算法。

ReadableStream 示例#

此示例创建一个简单的 ReadableStream,该流每秒永久推送一次当前的 performance.now() 时间戳。 异步可迭代对象用于从流中读取数据。

import {
  ReadableStream,
} from 'node:stream/web';

import {
  setInterval as every,
} from 'node:timers/promises';

import {
  performance,
} from 'node:perf_hooks';

const SECOND = 1000;

const stream = new ReadableStream({
  async start(controller) {
    for await (const _ of every(SECOND))
      controller.enqueue(performance.now());
  },
});

for await (const value of stream)
  console.log(value);const {
  ReadableStream,
} = require('node:stream/web');

const {
  setInterval: every,
} = require('node:timers/promises');

const {
  performance,
} = require('node:perf_hooks');

const SECOND = 1000;

const stream = new ReadableStream({
  async start(controller) {
    for await (const _ of every(SECOND))
      controller.enqueue(performance.now());
  },
});

(async () => {
  for await (const value of stream)
    console.log(value);
})();

Node.js 流互操作性#

Node.js 流可以通过 stream.Readablestream.Writablestream.Duplex 对象上的 toWebfromWeb 方法转换为 web 流,反之亦然。

有关更多详细信息,请参阅相关文档

API#

类:ReadableStream#

new ReadableStream([underlyingSource [, strategy]])#
  • underlyingSource <Object>
    • start <Function> 用户定义的函数,在创建 ReadableStream 时立即调用。
    • pull <Function>ReadableStream 内部队列未满时,重复调用用户定义的函数。 该操作可以是同步的或异步的。 如果是异步的,则在先前返回的 Promise 兑现之前,不会再次调用该函数。
    • cancel <Function> 取消 ReadableStream 时调用的用户定义的函数。
      • reason <any>
      • 返回:使用 undefined 兑现的 Promise。
    • type <string> 必须是 'bytes'undefined
    • autoAllocateChunkSize <number> 仅当 type 等于 'bytes' 时使用。 当设置为非零值时,视图缓冲区会自动分配给 ReadableByteStreamController.byobRequest。 如果未设置,则必须使用流的内部队列,通过默认读取器 ReadableStreamDefaultReader 传输数据。
  • strategy <Object>
    • highWaterMark <number> 应用背压之前的最大内部队列大小。
    • size <Function> 用于标识每个数据块大小的用户定义的函数。
readableStream.locked#

默认情况下,readableStream.locked 属性为 false,当存在活动的读取器正在消耗流的数据时,会切换为 true

readableStream.cancel([reason])#
  • reason <any>
  • 返回: 取消完成后,会兑现一个 undefined 的 Promise。
readableStream.getReader([options])#
import { ReadableStream } from 'node:stream/web';

const stream = new ReadableStream();

const reader = stream.getReader();

console.log(await reader.read());const { ReadableStream } = require('node:stream/web');

const stream = new ReadableStream();

const reader = stream.getReader();

reader.read().then(console.log);

导致 readableStream.lockedtrue

readableStream.pipeThrough(transform[, options])#
  • transform <Object>
    • readable <ReadableStream> ReadableStreamtransform.writable 会将它从这个 ReadableStream 接收到的、可能被修改的数据推送到此流中。
    • writable <WritableStream>ReadableStream 的数据将被写入的 WritableStream
  • options <Object>
    • preventAbort <boolean> 当为 true 时,此 ReadableStream 中的错误不会导致 transform.writable 被中止。
    • preventCancel <boolean> 当为 true 时,目标 transform.writable 中的错误不会导致此 ReadableStream 被取消。
    • preventClose <boolean> 当为 true 时,关闭此 ReadableStream 不会导致 transform.writable 被关闭。
    • signal <AbortSignal> 允许使用 <AbortController> 取消数据传输。
  • 返回: 来自 transform.readable<ReadableStream>

将此 <ReadableStream> 连接到 transform 参数中提供的一对 <ReadableStream><WritableStream>,以便将来自此 <ReadableStream> 的数据写入 transform.writable,可能经过转换,然后推送到 transform.readable。配置好管道后,将返回 transform.readable

当管道操作处于活动状态时,导致 readableStream.lockedtrue

import {
  ReadableStream,
  TransformStream,
} from 'node:stream/web';

const stream = new ReadableStream({
  start(controller) {
    controller.enqueue('a');
  },
});

const transform = new TransformStream({
  transform(chunk, controller) {
    controller.enqueue(chunk.toUpperCase());
  },
});

const transformedStream = stream.pipeThrough(transform);

for await (const chunk of transformedStream)
  console.log(chunk);
  // Prints: Aconst {
  ReadableStream,
  TransformStream,
} = require('node:stream/web');

const stream = new ReadableStream({
  start(controller) {
    controller.enqueue('a');
  },
});

const transform = new TransformStream({
  transform(chunk, controller) {
    controller.enqueue(chunk.toUpperCase());
  },
});

const transformedStream = stream.pipeThrough(transform);

(async () => {
  for await (const chunk of transformedStream)
    console.log(chunk);
    // Prints: A
})();
readableStream.pipeTo(destination[, options])#
  • destination <WritableStream>ReadableStream 的数据将被写入的 <WritableStream>
  • options <Object>
    • preventAbort <boolean> 当为 true 时,此 ReadableStream 中的错误不会导致 destination 被中止。
    • preventCancel <boolean> 当为 true 时,destination 中的错误不会导致此 ReadableStream 被取消。
    • preventClose <boolean> 当为 true 时,关闭此 ReadableStream 不会导致 destination 被关闭。
    • signal <AbortSignal> 允许使用 <AbortController> 取消数据传输。
  • 返回: 一个 Promise,用 undefined 兑现

当管道操作处于活动状态时,导致 readableStream.lockedtrue

readableStream.tee()#

返回一对新的 <ReadableStream> 实例,此 ReadableStream 的数据将被转发到它们。每个实例都将接收相同的数据。

导致 readableStream.lockedtrue

readableStream.values([options])#

创建并返回一个可用于消耗此 ReadableStream 数据的异步迭代器。

当异步迭代器处于活动状态时,导致 readableStream.lockedtrue

import { Buffer } from 'node:buffer';

const stream = new ReadableStream(getSomeSource());

for await (const chunk of stream.values({ preventCancel: true }))
  console.log(Buffer.from(chunk).toString()); 
异步迭代#

<ReadableStream> 对象支持使用 for await 语法的异步迭代器协议。

import { Buffer } from 'node:buffer';

const stream = new ReadableStream(getSomeSource());

for await (const chunk of stream)
  console.log(Buffer.from(chunk).toString()); 

异步迭代器将消耗 <ReadableStream> 直到它终止。

默认情况下,如果异步迭代器提前退出(通过 breakreturnthrow),则 <ReadableStream> 将被关闭。 要防止自动关闭 <ReadableStream>,请使用 readableStream.values() 方法来获取异步迭代器并将 preventCancel 选项设置为 true

<ReadableStream> 不能被锁定(也就是说,它不能有现有的活动读取器)。 在异步迭代期间,<ReadableStream> 将被锁定。

使用 postMessage() 传输#

可以使用 <MessagePort> 传输 <ReadableStream> 实例。

const stream = new ReadableStream(getReadableSourceSomehow());

const { port1, port2 } = new MessageChannel();

port1.onmessage = ({ data }) => {
  data.getReader().read().then((chunk) => {
    console.log(chunk);
  });
};

port2.postMessage(stream, [stream]); 

ReadableStream.from(iterable)#

  • iterable <Iterable> 实现 Symbol.asyncIteratorSymbol.iterator 可迭代协议的对象。

一个实用方法,用于从可迭代对象创建一个新的 <ReadableStream>

import { ReadableStream } from 'node:stream/web';

async function* asyncIterableGenerator() {
  yield 'a';
  yield 'b';
  yield 'c';
}

const stream = ReadableStream.from(asyncIterableGenerator());

for await (const chunk of stream)
  console.log(chunk); // Prints: 'a', 'b', 'c'const { ReadableStream } = require('node:stream/web');

async function* asyncIterableGenerator() {
  yield 'a';
  yield 'b';
  yield 'c';
}

(async () => {
  const stream = ReadableStream.from(asyncIterableGenerator());

  for await (const chunk of stream)
    console.log(chunk); // Prints: 'a', 'b', 'c'
})();

要将生成的 <ReadableStream> 管道传输到 <WritableStream> 中,<Iterable> 应该生成一系列 <Buffer><TypedArray><DataView> 对象。

import { ReadableStream } from 'node:stream/web';
import { Buffer } from 'node:buffer';

async function* asyncIterableGenerator() {
  yield Buffer.from('a');
  yield Buffer.from('b');
  yield Buffer.from('c');
}

const stream = ReadableStream.from(asyncIterableGenerator());

await stream.pipeTo(createWritableStreamSomehow());const { ReadableStream } = require('node:stream/web');
const { Buffer } = require('node:buffer');

async function* asyncIterableGenerator() {
  yield Buffer.from('a');
  yield Buffer.from('b');
  yield Buffer.from('c');
}

const stream = ReadableStream.from(asyncIterableGenerator());

(async () => {
  await stream.pipeTo(createWritableStreamSomehow());
})();

类: ReadableStreamDefaultReader#

默认情况下,调用不带参数的 readableStream.getReader() 将返回 ReadableStreamDefaultReader 的一个实例。 默认读取器将通过流传递的数据块视为不透明值,这允许 <ReadableStream> 处理通常任何 JavaScript 值。

new ReadableStreamDefaultReader(stream)#

创建一个新的 <ReadableStreamDefaultReader>,它被锁定到给定的 <ReadableStream>

readableStreamDefaultReader.cancel([reason])#
  • reason <any>
  • 返回:使用 undefined 兑现的 Promise。

取消 <ReadableStream> 并返回一个 Promise,当底层流已被取消时,该 Promise 将被兑现。

readableStreamDefaultReader.closed#
  • 类型: <Promise> 当关联的 <ReadableStream> 关闭时,用 undefined 兑现;如果流出错或在流完成关闭之前释放了读取器的锁,则拒绝该 Promise。
readableStreamDefaultReader.read()#
  • 返回: 一个 Promise,用一个对象兑现

从底层 <ReadableStream> 请求下一个数据块,并返回一个 Promise,一旦数据可用,该 Promise 就会被兑现。

readableStreamDefaultReader.releaseLock()#

释放此读取器对底层 <ReadableStream> 的锁定。

类: ReadableStreamBYOBReader#

ReadableStreamBYOBReader 是面向字节的 <ReadableStream> 的替代消费者(当创建 ReadableStream 时,这些流的 underlyingSource.type 设置为等于 'bytes')。

BYOB 是 "bring your own buffer" 的缩写。 这是一种模式,可以更有效地读取面向字节的数据,从而避免不必要的复制。

import {
  open,
} from 'node:fs/promises';

import {
  ReadableStream,
} from 'node:stream/web';

import { Buffer } from 'node:buffer';

class Source {
  type = 'bytes';
  autoAllocateChunkSize = 1024;

  async start(controller) {
    this.file = await open(new URL(import.meta.url));
    this.controller = controller;
  }

  async pull(controller) {
    const view = controller.byobRequest?.view;
    const {
      bytesRead,
    } = await this.file.read({
      buffer: view,
      offset: view.byteOffset,
      length: view.byteLength,
    });

    if (bytesRead === 0) {
      await this.file.close();
      this.controller.close();
    }
    controller.byobRequest.respond(bytesRead);
  }
}

const stream = new ReadableStream(new Source());

async function read(stream) {
  const reader = stream.getReader({ mode: 'byob' });

  const chunks = [];
  let result;
  do {
    result = await reader.read(Buffer.alloc(100));
    if (result.value !== undefined)
      chunks.push(Buffer.from(result.value));
  } while (!result.done);

  return Buffer.concat(chunks);
}

const data = await read(stream);
console.log(Buffer.from(data).toString()); 
new ReadableStreamBYOBReader(stream)#

创建一个新的 ReadableStreamBYOBReader,它被锁定到给定的 <ReadableStream>

readableStreamBYOBReader.cancel([reason])#
  • reason <any>
  • 返回:使用 undefined 兑现的 Promise。

取消 <ReadableStream> 并返回一个 Promise,当底层流已被取消时,该 Promise 将被兑现。

readableStreamBYOBReader.closed#
  • 类型: <Promise> 当关联的 <ReadableStream> 关闭时,用 undefined 兑现;如果流出错或在流完成关闭之前释放了读取器的锁,则拒绝该 Promise。
readableStreamBYOBReader.read(view[, options])#

从底层 <ReadableStream> 请求下一个数据块,并返回一个 Promise,一旦数据可用,该 Promise 就会被兑现。

不要将池化的 <Buffer> 对象实例传递给此方法。 池化的 Buffer 对象是使用 Buffer.allocUnsafe()Buffer.from() 创建的,或者通常由各种 node:fs 模块回调返回。 这些类型的 Buffer 使用共享的底层 <ArrayBuffer> 对象,该对象包含所有池化的 Buffer 实例中的所有数据。 当将 Buffer<TypedArray><DataView> 传递给 readableStreamBYOBReader.read() 时,该视图的底层 ArrayBuffer 会被分离,从而使可能存在于该 ArrayBuffer 上的所有现有视图失效。 这可能会给您的应用程序带来灾难性的后果。

readableStreamBYOBReader.releaseLock()#

释放此读取器对底层 <ReadableStream> 的锁定。

类: ReadableStreamDefaultController#

每个 <ReadableStream> 都有一个控制器,负责流的队列的内部状态和管理。 ReadableStreamDefaultController 是非面向字节的 ReadableStream 的默认控制器实现。

readableStreamDefaultController.close()#

关闭与此控制器关联的 <ReadableStream>

readableStreamDefaultController.desiredSize#

返回填充 <ReadableStream> 的队列剩余的数据量。

readableStreamDefaultController.enqueue([chunk])#

将新的数据块追加到 <ReadableStream> 的队列中。

readableStreamDefaultController.error([error])#

发出错误信号,导致 <ReadableStream> 发生错误并关闭。

类: ReadableByteStreamController#

每个 <ReadableStream> 都有一个控制器,负责流的队列的内部状态和管理。 ReadableByteStreamController 适用于面向字节的 ReadableStream

readableByteStreamController.byobRequest#
readableByteStreamController.close()#

关闭与此控制器关联的 <ReadableStream>

readableByteStreamController.desiredSize#

返回填充 <ReadableStream> 的队列剩余的数据量。

readableByteStreamController.enqueue(chunk)#

将新的数据块追加到 <ReadableStream> 的队列中。

readableByteStreamController.error([error])#

发出错误信号,导致 <ReadableStream> 发生错误并关闭。

类: ReadableStreamBYOBRequest#

当在面向字节的流中使用 ReadableByteStreamController,以及在使用 ReadableStreamBYOBReader 时,readableByteStreamController.byobRequest 属性提供对表示当前读取请求的 ReadableStreamBYOBRequest 实例的访问。 该对象用于访问已提供的用于填充读取请求的 ArrayBuffer/TypedArray,并提供用于发出已提供数据的信号的方法。

readableStreamBYOBRequest.respond(bytesWritten)#

发出信号,表示已将 bytesWritten 个字节写入 readableStreamBYOBRequest.view

readableStreamBYOBRequest.respondWithNewView(view)#

发出信号,表示已使用写入新 BufferTypedArrayDataView 的字节来满足请求。

readableStreamBYOBRequest.view#

类: WritableStream#

WritableStream 是流数据发送到的目的地。

import {
  WritableStream,
} from 'node:stream/web';

const stream = new WritableStream({
  write(chunk) {
    console.log(chunk);
  },
});

await stream.getWriter().write('Hello World'); 
new WritableStream([underlyingSink[, strategy]])#
  • underlyingSink <Object>
    • start <Function> 用户定义的函数,在创建 WritableStream 时立即调用。
    • write <Function> 用户定义的函数,当数据块写入 WritableStream 时调用。
    • close <Function> 用户定义的函数,在 WritableStream 关闭时调用。
      • 返回:使用 undefined 兑现的 Promise。
    • abort <Function> 用户定义的函数,用于突然关闭 WritableStream
      • reason <any>
      • 返回:使用 undefined 兑现的 Promise。
    • type <any> type 选项保留供将来使用,并且必须未定义。
  • strategy <Object>
    • highWaterMark <number> 应用背压之前的最大内部队列大小。
    • size <Function> 用于标识每个数据块大小的用户定义的函数。
writableStream.abort([reason])#
  • reason <any>
  • 返回:使用 undefined 兑现的 Promise。

突然终止 WritableStream。 所有排队的写入都将被取消,并且与其关联的 Promise 将被拒绝。

writableStream.close()#
  • 返回:使用 undefined 兑现的 Promise。

当不再需要其他写入时,关闭 WritableStream

writableStream.getWriter()#

创建并返回一个新的写入器实例,该实例可用于将数据写入 WritableStream

writableStream.locked#

默认情况下,writableStream.locked 属性为 false,并且在有活动的写入器附加到此 WritableStream 时,它会切换为 true

使用 postMessage() 传输#

可以使用 <MessagePort> 传输 <WritableStream> 实例。

const stream = new WritableStream(getWritableSinkSomehow());

const { port1, port2 } = new MessageChannel();

port1.onmessage = ({ data }) => {
  data.getWriter().write('hello');
};

port2.postMessage(stream, [stream]); 

类: WritableStreamDefaultWriter#

new WritableStreamDefaultWriter(stream)#

创建一个新的 WritableStreamDefaultWriter,该写入器已锁定到给定的 WritableStream

writableStreamDefaultWriter.abort([reason])#
  • reason <any>
  • 返回:使用 undefined 兑现的 Promise。

突然终止 WritableStream。 所有排队的写入都将被取消,并且与其关联的 Promise 将被拒绝。

writableStreamDefaultWriter.close()#
  • 返回:使用 undefined 兑现的 Promise。

当不再需要其他写入时,关闭 WritableStream

writableStreamDefaultWriter.closed#
  • 类型: <Promise> 当关联的 <WritableStream> 关闭时,会用 undefined 履行;如果流出错或写入器的锁在流完成关闭之前被释放,则会被拒绝。
writableStreamDefaultWriter.desiredSize#

填充 <WritableStream> 的队列所需的数据量。

writableStreamDefaultWriter.ready#
  • 类型: <Promise> 当写入器准备好使用时,会用 undefined 履行。
writableStreamDefaultWriter.releaseLock()#

释放此写入器对底层 <ReadableStream> 的锁定。

writableStreamDefaultWriter.write([chunk])#
  • chunk: <any>
  • 返回:使用 undefined 兑现的 Promise。

将一个新的数据块追加到 <WritableStream> 的队列中。

类:WritableStreamDefaultController#

WritableStreamDefaultController 管理 <WritableStream> 的内部状态。

writableStreamDefaultController.error([error])#

由用户代码调用,以指示在处理 WritableStream 数据时发生了错误。 调用后,<WritableStream> 将被中止,并且当前正在进行的写入将被取消。

writableStreamDefaultController.signal#

类:TransformStream#

TransformStream 由一个 <ReadableStream> 和一个 <WritableStream> 组成,它们连接在一起,以便写入 WritableStream 的数据在被推入 ReadableStream 的队列之前被接收,并可能被转换。

import {
  TransformStream,
} from 'node:stream/web';

const transform = new TransformStream({
  transform(chunk, controller) {
    controller.enqueue(chunk.toUpperCase());
  },
});

await Promise.all([
  transform.writable.getWriter().write('A'),
  transform.readable.getReader().read(),
]); 
new TransformStream([transformer[, writableStrategy[, readableStrategy]]])#
  • transformer <Object>
    • start <Function> 一个用户定义的函数,在创建 TransformStream 时立即调用。
    • transform <Function> 一个用户定义的函数,它接收并可能修改写入 transformStream.writable 的数据块,然后再将其转发到 transformStream.readable
    • flush <Function> 一个用户定义的函数,在 TransformStream 的可写端关闭之前立即调用,表示转换过程的结束。
    • readableType <any> readableType 选项保留供将来使用,并且*必须*是 undefined
    • writableType <any> writableType 选项保留供将来使用,并且*必须*是 undefined
  • writableStrategy <Object>
    • highWaterMark <number> 应用背压之前的最大内部队列大小。
    • size <Function> 用于标识每个数据块大小的用户定义的函数。
  • readableStrategy <Object>
    • highWaterMark <number> 应用背压之前的最大内部队列大小。
    • size <Function> 用于标识每个数据块大小的用户定义的函数。
transformStream.readable#
transformStream.writable#
使用 postMessage() 传输#

可以使用 <MessagePort> 传输 <TransformStream> 实例。

const stream = new TransformStream();

const { port1, port2 } = new MessageChannel();

port1.onmessage = ({ data }) => {
  const { writable, readable } = data;
  // ...
};

port2.postMessage(stream, [stream]); 

类:TransformStreamDefaultController#

TransformStreamDefaultController 管理 TransformStream 的内部状态。

transformStreamDefaultController.desiredSize#

填充可读端队列所需的数据量。

transformStreamDefaultController.enqueue([chunk])#

将数据块追加到可读端的队列。

transformStreamDefaultController.error([reason])#

向可读端和可写端发出信号,表明在处理转换数据时发生了错误,导致两端都突然关闭。

transformStreamDefaultController.terminate()#

关闭传输的可读端,并导致可写端因错误而突然关闭。

类:ByteLengthQueuingStrategy#

new ByteLengthQueuingStrategy(init)#
byteLengthQueuingStrategy.highWaterMark#
byteLengthQueuingStrategy.size#

类:CountQueuingStrategy#

new CountQueuingStrategy(init)#
countQueuingStrategy.highWaterMark#
countQueuingStrategy.size#

类:TextEncoderStream#

new TextEncoderStream()#

创建一个新的 TextEncoderStream 实例。

textEncoderStream.encoding#

TextEncoderStream 实例支持的编码。

textEncoderStream.readable#
textEncoderStream.writable#

类:TextDecoderStream#

new TextDecoderStream([encoding[, options]])#
  • encoding <string> 标识此 TextDecoder 实例支持的 encoding默认值: 'utf-8'
  • options <Object>
    • fatal <boolean> 如果解码失败是致命的,则为 true
    • ignoreBOM <boolean> 当为 true 时,TextDecoderStream 将在解码结果中包含字节顺序标记。 当为 false 时,将从输出中删除字节顺序标记。 仅当 encoding'utf-8''utf-16be''utf-16le' 时才使用此选项。 默认值: false

创建一个新的 TextDecoderStream 实例。

textDecoderStream.encoding#

TextDecoderStream 实例支持的编码。

textDecoderStream.fatal#

如果解码错误导致抛出 TypeError,则该值为 true

textDecoderStream.ignoreBOM#

如果解码结果将包含字节顺序标记,则该值为 true

textDecoderStream.readable#
textDecoderStream.writable#

类:CompressionStream#

new CompressionStream(format)#
  • format <string> 'deflate', 'deflate-raw', 或 'gzip' 之一。
compressionStream.readable#
compressionStream.writable#

类:DecompressionStream#

new DecompressionStream(format)#
  • format <string> 'deflate', 'deflate-raw', 或 'gzip' 之一。
decompressionStream.readable#
decompressionStream.writable#

实用工具消费者#

实用工具消费者函数提供使用流的通用选项。

它们使用以下方式访问:

import {
  arrayBuffer,
  blob,
  buffer,
  json,
  text,
} from 'node:stream/consumers';const {
  arrayBuffer,
  blob,
  buffer,
  json,
  text,
} = require('node:stream/consumers');
streamConsumers.arrayBuffer(stream)#
import { arrayBuffer } from 'node:stream/consumers';
import { Readable } from 'node:stream';
import { TextEncoder } from 'node:util';

const encoder = new TextEncoder();
const dataArray = encoder.encode('hello world from consumers!');

const readable = Readable.from(dataArray);
const data = await arrayBuffer(readable);
console.log(`from readable: ${data.byteLength}`);
// Prints: from readable: 76const { arrayBuffer } = require('node:stream/consumers');
const { Readable } = require('node:stream');
const { TextEncoder } = require('node:util');

const encoder = new TextEncoder();
const dataArray = encoder.encode('hello world from consumers!');
const readable = Readable.from(dataArray);
arrayBuffer(readable).then((data) => {
  console.log(`from readable: ${data.byteLength}`);
  // Prints: from readable: 76
});
streamConsumers.blob(stream)#
import { blob } from 'node:stream/consumers';

const dataBlob = new Blob(['hello world from consumers!']);

const readable = dataBlob.stream();
const data = await blob(readable);
console.log(`from readable: ${data.size}`);
// Prints: from readable: 27const { blob } = require('node:stream/consumers');

const dataBlob = new Blob(['hello world from consumers!']);

const readable = dataBlob.stream();
blob(readable).then((data) => {
  console.log(`from readable: ${data.size}`);
  // Prints: from readable: 27
});
streamConsumers.buffer(stream)#
import { buffer } from 'node:stream/consumers';
import { Readable } from 'node:stream';
import { Buffer } from 'node:buffer';

const dataBuffer = Buffer.from('hello world from consumers!');

const readable = Readable.from(dataBuffer);
const data = await buffer(readable);
console.log(`from readable: ${data.length}`);
// Prints: from readable: 27const { buffer } = require('node:stream/consumers');
const { Readable } = require('node:stream');
const { Buffer } = require('node:buffer');

const dataBuffer = Buffer.from('hello world from consumers!');

const readable = Readable.from(dataBuffer);
buffer(readable).then((data) => {
  console.log(`from readable: ${data.length}`);
  // Prints: from readable: 27
});
streamConsumers.json(stream)#
import { json } from 'node:stream/consumers';
import { Readable } from 'node:stream';

const items = Array.from(
  {
    length: 100,
  },
  () => ({
    message: 'hello world from consumers!',
  }),
);

const readable = Readable.from(JSON.stringify(items));
const data = await json(readable);
console.log(`from readable: ${data.length}`);
// Prints: from readable: 100const { json } = require('node:stream/consumers');
const { Readable } = require('node:stream');

const items = Array.from(
  {
    length: 100,
  },
  () => ({
    message: 'hello world from consumers!',
  }),
);

const readable = Readable.from(JSON.stringify(items));
json(readable).then((data) => {
  console.log(`from readable: ${data.length}`);
  // Prints: from readable: 100
});
streamConsumers.text(stream)#
import { text } from 'node:stream/consumers';
import { Readable } from 'node:stream';

const readable = Readable.from('Hello world from consumers!');
const data = await text(readable);
console.log(`from readable: ${data.length}`);
// Prints: from readable: 27const { text } = require('node:stream/consumers');
const { Readable } = require('node:stream');

const readable = Readable.from('Hello world from consumers!');
text(readable).then((data) => {
  console.log(`from readable: ${data.length}`);
  // Prints: from readable: 27
});