#技术教程 重大喜报!Telegram 面向所有机器人开放流式输出,现在 OpenClaw AI 机器人也能如打字机般输出内容。原本该功能仅限于经认证的 AI 机器人使用,昨夜杜洛夫宣布开放此功能,所以我们也只需要简单的配置参数后就能让自己的 OpenClaw AI 机器人也流式输出内容,而不是每次等待模型响应输出整段内容。配置指南:https://ourl.co/111987
即时通讯工具 Telegram 允许用户创建任意机器人,但只有经过认证的 AI 机器人才可以使用流式输出,例如在 Telegram 上的 Microsoft Copilot 和 xAI Grok 等。
我们自己搭建的 OpenClaw AI 机器人就无法达到逐字吐出内容的效果,这是 Telegram API 的限制并非 OpenClaw 的问题,不过现在这个问题已经被解决。
Telegram 创始人杜洛夫日前宣布所有聊天机器人都可以使用流式输出功能(sendMessageDraft),也就是向用户逐字或逐段发送内容,而不是必须生成完整内容后一次性发给用户。
这是通过 API 层面的变动,OpenClaw 本体不需要升级 (因为此前已经支持),用户只需要配置参数启用流式输出功能即可,还可以启用思考消息,这样模型在思考时也同样会将思考片段发送给你。
下面是配置提示词 (直接发给你的 OpenClaw 即可):
访问此文档页面:https://docs.openclaw.ai/channels/telegram#live-stream-preview-native-drafts-message-edits 按文档说明启用流式预览和草稿 / 推理气泡。
修改参数前请先备份原配置文件到.bak,然后查询文档获得合法参数再修改配置文件,修改完成后先校验 JSON 合法性再通过 OpenClaw Doctor 确认配置正确,操作完成后请告诉我并由我确认后再重启。
如果你想开启思考片段输出:
直接向机器人发送该指令:/reasoning stream (后续如果想要禁用请发送命令 /reasoning off 这些都是立即生效)
如果你想手动更改配置文件增加流式输出:
修改~/.openclaw/openclaw.json 配置文件找到下面这段并按照参数修改,blockStreaming 必须设置为 false,否则消息仍然看起来像是整段一次性发来。
另外经过蓝点网测试目前配置后还达不到打字机那般逐字输出,而是小片段 (比如 10 个字) 输出,而且是原消息里修改,这个功能的核心其实就是先发个草稿占位符然后不断地修改内容实现类似的吐字效果。
{
"channels": {
"telegram": {
"streaming": "partial",
"blockStreaming": false
}
}
}怎么判断是否修改成功:
正常表现:消息分段刷新、同一条消息不断被编辑出现新内容 (也可能是删除部分内容)
特别注意:Telegram 机器人还做不到真正的打字机那样逐字输出,更像是分块更新
如果消息仍然是一次性出现,请检查: streaming 是否为 partial、blockStreaming 是否是 false、是否已重启 gateway
![[配置指南] Telegram向所有机器人开放流式输出 OpenClaw也能打字机般输出内容](https://img.lancdn.com/landian/2026/03/111987.gif)