Stack Internal 2026.3 版本正式发布,核心亮点是 Ingestion(内容摄取)引擎全面开放可用。该功能旨在帮助企业将散落在各类工具中的碎片化知识,自动转化为结构化、可验证的 Q&A 内容,供人和 AI 工具高效复用。
AI 自动处理:把原始文本变成高质量知识对
Ingestion 的 AI 管道会完成"粗活":将原始文本智能分块、清洗,拆解为结构化的原子级问答对(Q&A pairs)。每条内容自动打标签、关联用户、打置信度分数,再交由领域专家(SME)最终审核。

简言之,原始、碎片化的数据被优化为人和 AI 都能理解的知识单元,而不是躺在文档角落里吃灰。
支持批量摄取多种格式
Ingestion 支持以下文件类型批量导入:
- 文档类:PDF、HTML、Markdown、DOCX、XLSX、PPTX
- 图片类:JPEG、PNG、BMP、HEIF、TIFF
导入方式灵活可选:POST /ingest/file API 接口适合大规模自动化迁移,也可直接在 Web 界面拖拽上传。数据从组织各处汇聚到统一知识库,整个过程几乎即时完成。

专家做审核,不做编辑
传统知识库建设要求 SME 从零撰写内容,门槛高、效率低。Ingestion 的思路完全不同:AI 完成"初稿",SME 只做验证。
系统自动完成结构化、标注和置信度评分,管理员和版主直接进入"审批高质量内容"阶段,无需从头创作。这将工作量从手动 curation(整理)转向专家 validation(验证),确保只有可信知识最终触达团队和 AI 工具。

Confluence Cloud 一键同步
新版还包含 Confluence Cloud 连接器,可与选定的 Confluence Space 直接打通。静态的长文页面会被 Ingestion 引擎自动转化为 SME 验证过的 Q&A 对——比原文档更易发现、更易信任、更易规模化维护。每条生成的内容还附带指向原始 Confluence 页面的直链,方便回溯原文。

MCP 接口:让知识在 IDE 和 AI 工具中流动
所有经验证发布的 Q&A 内容,都可以通过 Stack Internal MCP 服务器在 AI 工具和 IDE 中直接调用。团队在已有工作流中就能获取专家验证过的上下文,无需在多个平台间来回切换。
如何开通使用
- 在 Admin Settings 中启用 Ingestion(参考官方配置指南)
- 所有客户每月免费获得 100 个 Knowledge Objects(已批准的 Q&A 对)
- 超出配额需联系 Stack Overflow 客户代表


评论