有了这样的朋友,谁还需要 VC?

内容管家 AI领域评论8字数 4337阅读14分27秒阅读模式

从量子化学博士到 AI 云创业

Zhen Lu(罗震)是 RunPod 的联合创始人兼 CEO,但他的学术背景与 AI 云计算毫无关系——他拥有量子化学博士学位,研究方向是 DNA 碱基的电子结构理论。这个领域横跨数学、化学、物理和生物,但他最终希望看到更即时的影响,于是转向软件工程。

在创业前,Zhen 与联合创始人 Pardeep 在同一支软件开发团队工作了约六年,将团队从 8 人规模发展到近百人。这段经历让他发现,自己擅长的是写代码,而不是做营销、销售或融资。

跳过 VC,用社区验证产品

选择社区驱动而非 VC 驱动的创业路径,并非一开始就规划好的。Zhen 直言:「我和联合创始人都是软件开发者出身。我们不是营销专家,不是销售专家,也不是资本市场专家——我们只会写软件。」 他们的做法是:自己出资购买服务器,架设在地下室里,直接把产品推向社区,用真实用户的反馈来验证市场需求,而不是靠融资和商业计划书。

RunPod 的核心定位

RunPod 定位为端到端的 AI 云平台,为开发者提供 GPU 资源,帮助他们构建和运行可扩展的自定义 AI 系统。这种从社区验证起步的模式,让产品开发更加贴近实际需求。

创始愿景:押注 GPU 与机器学习的未来

Zhen Lu 回忆,RunPod 创立之初就带着一个"相当宏大的愿景"——重新定义软件开发的下一阶段。团队坚定地认为,软件开发必将走向机器学习驱动的方向。尽管当时生成式 AI 尚未兴起,但他们预判 GPU 等加速硬件会在这条路上扮演越来越重要的角色。

几位创始人当时正在日常工作里构建大型分布式系统,同时推进一些机器学习项目。他们意识到:现有的开发体验"相当糟糕",而且这个问题只会越来越大。 作为曾经的云从业者,他们错过了云计算的第一波浪潮,这一次不想再错过。核心驱动力就是:"如果我们想帮助别人构建云,越早动手越好,哪怕需要花上几年时间。"

如何验证市场需求:Reddit 帖子 + 免费邀请制

真正的转折点来自社区验证。RunPod 上线第一天推出的产品是支持 GPU 的云端开发环境——用户可以快速启动、快速销毁,省去传统云服务器那种"先装虚拟机、再配依赖矩阵"的繁琐流程。

产品发布时采用免费邀请制:创始团队在 Reddit 发帖,声明"我们为社区做了这个东西,觉得还不错,暂时不收费,运行在我们地下室的 GPU 上"。他们只有一个请求——如果你想用,告诉我们你想用它做什么;如果觉得有意思,他们会给你开通权限;唯一的要求就是"告诉我们冷冰冰的真相"。

结果社区反响超出预期:用户不仅给出了极具建设性的反馈,而且频率最高的诉求只有一个——"请收我的钱。" 这成为 RunPod 商业模式最早的雏形。

产品路线图:社区反馈与创始人判断的平衡

随着用户越来越成功,一些人开始真正基于 RunPod 创业,并主动要求更高级的功能。团队顺势扩展出 serverless 自动扩缩容 功能,支持真正自定义的工作负载、冷启动速度快,核心逻辑始终围绕"让开发者快速迭代"这一需求展开——无论传统软件还是 AI 软件,迭代速度都是开发效率的关键。

在被问及产品规划有多少来自社区、有多少是团队预判时,Zhen Lu 的回答是"两者兼有":

  • 创始团队的技术直觉:作为技术背景的创始人,对开发者的真实需求有强烈信念和判断。
  • 社区快速反馈循环:将直觉与社区高频互动相结合,形成产品迭代方向。

Zhen Lu 打了个比方:完全闭门造车说"我们比你们更懂该做什么"行不通;但反过来完全听社区的,也会变成"荷马·辛普森造车"——众口难调。真正重要的是能看得更远一步,同时问出正确的问题

从用户噪声中找准 ICP:RunPod 的产品聚焦策略

AI 民主化带来的副作用之一,是用户群的极度分散。RunPod 联合创始人 Zhen Lu 坦言,正因为 AI 降低了开发门槛,他们吸引到了形形色色的用户——从"想给孩子生成点东西玩玩"的普通人,到立志打造商业产品的创业者。这种多样性既是优势,也让产品方向的聚焦变得更难。

Zhen Lu 的应对方式是把"最终目标"作为核心澄清问题:你到底想做成什么? 这个看似简单的问题,能迅速把用户分成两类——自用型和产品型。前者受欢迎,但不是重点服务对象;后者才是 RunPod 真正想深耕的 ICP(理想客户画像)。

一旦识别出有意构建产品的用户,Zhen Lu 会进一步追问:概念验证成功后,你知道怎么扩展吗?他们发现,不少客户已经拥有 10 到 100 个初始用户,产品也有明显的差异化,但卡在了"如何从技术层面规模化"这道坎上。这恰好是 RunPod 的核心能力所在。

"数据优先"范式:把工作负载送到数据身边

RunPod 的基础设施理念可以追溯到创业初期——两位联合创始人把服务器架在各自的地下室,用扎线带固定机器,跑在 Comcast 家用宽带上。这段"最接地气"的起点,反而孕育出了一个关键设计原则:软件必须能在任何硬件、任何网络环境上运行

这一原则后来支撑了 RunPod 的全球基础设施合作伙伴网络——他们能以极快的速度接入新的数据中心,并用统一的软件层将分散在世界各地的资源呈现为一张无缝的计算网格。

更值得关注的是他们提出的 "数据优先(Data-First)"范式,与传统云计算"工作负载优先"的逻辑正好相反:

  • 传统做法:先决定工作负载跑在哪,再把数据搬过去。
  • RunPod 做法:把数据预先分布在全球各数据中心,让工作负载主动靠近数据。

在 AI 场景下,数据量级远超传统应用,数据搬运本身就是性能瓶颈。将工作负载调度到数据所在位置,能显著降低延迟、提升吞吐效率,这一范式转变也被 Zhen Lu 视为 RunPod 用户体验跃升的关键驱动力之一。

不做硬件做平台:RunPod 的核心定位

Zhen Lu 多次强调,RunPod 是一家软件公司,不会大量持有 GPU 资源。"我们自有 GPU 的数量可以忽略不计。"他表示,"在这个规模下,要真正拥有那些硬件需要极其庞大的资本。" 真正让 RunPod 花心思的,是让开发者不用操心去哪儿找 GPU。Zhen Lu 觉得这是最无聊的问题,开发者应该去想"如何创造下一个神奇体验",而不是"去哪儿搞到下一块 GPU"。

不是聚合商,而是体验层

有人把 RunPod 理解为 GPU 资源聚合商——把各种云厂商的算力打包提供。Zhen Lu 明确表示不认同这个定位。

"聚合商的定义是你把一种商品拿过来然后出售。但 RunPod 的思路完全不同。"Zhen Lu 说,"用户来到 RunPod,不会看到'这里是我们合作的供应商,请选择一个'这种界面。不同供应商定价不同、规则不同,我们认为用户根本不该处理这些。" 在他看来,用户来 RunPod 是冲着平台能力和开发者体验来的,底层算力从哪里来根本不该在用户的考虑范围内。

AI 负载靠近数据的理想与现实

谈到将 GPU 密集型 AI 负载部署到数据库内部或数据仓库附近(比如 Snowflake),Zhen Lu 认为这在理论上很美好,但现实很骨感。

有了这样的朋友,谁还需要 VC?

"如果真能做到所有东西放在一个地方,确实很难反驳。"但他以自己公司为例:RunPod 确实用数据湖提供商存储大量数据,但也"不可能把所有 GPU 计算需求和全部数据都塞进同一个单体架构"。

Zhen Lu 承认,对部分负载来说,这种方式确实可行。但问题在于随之而来的割裂感:开发者或架构师现在必须用至少两种不同方式处理不同类型的负载,复杂度不降反升。

集成之痛:AI Agent 带来的新问题

当被问及这种负载分离是否能在微服务架构下实现时,Zhen Lu 认为这需要一种全新的架构思维。

他观察到 AI Agent 场景下,集成之痛正在以两种相反的方向演变。一方面,Agent 对接 API 的能力在提升,只要文档质量过关,集成难度在降低。另一方面,围绕访问控制和资源治理的痛苦在加剧——"你的 Agent 手持管理员密钥四处调用,成本可能迅速失控"。

开发者困境:从"选择多"到"选择爆炸"

聊到软件开发方式的根本性变化时,Zhen Lu 不无感慨地回忆起自己早年自学编程的经历。"我当时觉得要学的东西太多了。"他对比道,"现在一个刚入行的新人面对的处境更是难以想象——东西太多,而且每天都在变。" 对于"T 型开发者"的概念(一个领域深耕,但也要懂更广泛的系统知识),Zhen Lu 认为这确实是现实,但对新人来说门槛已经非常高。

"品味力"正在成为开发者的核心竞争力

人工智能可以生成代码,但它无法替代判断力。RunPod 联合创始人 Zhen Lu 在对话中直言:在 AI 大行其道的今天,开发者最需要守住的,恰恰是那些 AI 最难复制的东西。

深度专业知识为何仍不可或缺

Zhen Lu 提出了一个值得警惕的问题:当你对一个问题本身缺乏理解时,AI 生成的代码极容易沦为"AI 垃圾"(AI slop)。 对于关键任务型软件,代码进入生产环境之前,始终需要有人真正看懂它在做什么——而这样的人,世界上并不多。

更令他担忧的是:如果 AI 能解决大多数难题,未来的开发者还有没有足够的动力去把自己磨砺到那种极致水准?这一代开发者的成长路径,正在成为整个行业需要密切关注的变量。

开发者的"T 型能力"正在变形

传统意义上,优秀开发者需要拥有"T 型能力"——一个纵深方向的专业积累,加上一定的横向视野。但 Zhen Lu 认为,横向维度的定义正在悄然改变:

你是否具备"品味",以及能否把这种品味清晰传达给 AI 或协作者,将变得极其重要。

他描绘的未来开发者画像,正越来越接近产品经理:能在脑海中持有完整愿景,借助深度专业知识驾驭 AI 与团队,最终将设想变为现实,并让它真正打动用户。这种"愿景 × 传达力 × 深度专业"的三角组合,他认为会是未来最关键的能力结构。

人类监督:不是因为悲观,而是因为时间变短了

面对 AI 能力的快速跃升,RunPod 内部已专门制定了一份 AI 使用指南,明确了哪些场景应积极使用 AI、哪些地方需要放慢节奏,以及各层级员工的 AI 使用预期。

Zhen Lu 坦言,这些答案本身并不容易,而且可能每周、每月都在变化:

"我不是 AI 悲观主义者,但正因为技术迭代周期越来越短,我们需要格外保持警觉,确保 AI 的应用真正在创造价值,而不是悄悄失控。"

Stack Overflow 依然是 AI 上下文的重要基石

对话的最后,Zhen Lu 主动聊起了"上下文工程"(context engineering)这个近期热议的概念,并把话题引向了一个根本性问题:AI 最终最需要从哪里获取上下文? Stack Overflow 的 Ryan Donovan 坦承自己有些立场偏向,但也指出了一个事实:Stack Overflow 已有 16 年积累,沉淀了海量经过社区校验、带有标注的高质量问答数据——这本质上是一套"规模化的数据标注体系",对 AI 训练而言价值极高。

Zhen Lu 对此直接回应:"这非常重要。" Ryan Donovan 也承认,当开发者遇到 AI 尚无答案的边界问题时,重新发现 Stack Overflow 的那一刻可能会来得猝不及防。尽管外界不时传出"Stack Overflow 已死"的论断,但这个社区依然有一批人在坚持回答问题——而它是否真正消亡,取决于使用者是否选择留下来。

播客精选:AI 时代,程序员为何仍需要"挣扎"

本期 Stack Overflow 播客邀请到 RunPod CEO 兼联合创始人 Zhen Lu,围绕 AI 编程、平台演进与开发者协作展开对话。

AI 编程平台的诞生土壤

Zhen Lu 指出,像 Lovable 这样的 AI 编程平台之所以能够存在,不仅仅依靠 Transformer 和生成式文本模型的技术突破,更离不开数十年传统软件开发积累的经验与知识体系。

他进一步解释,Stack Overflow 等在线社区为生成式 AI 提供了大量训练数据。换言之,人类在传统软件工程领域的"挣扎",反过来塑造了 AI 编程的能力边界。但与此同时,人类与 AI 系统之间的磨合才刚刚开始,远未积累到与前者同等的知识深度。

因此,Zhen Lu 认为,在 AI 辅助开发的过程中,人类仍需经历相当长时间的探索与试错——尽管 AI 会加速这一进程。

挣扎的价值:学习为何离不开困难

Ryan Donovan 分享了一个教育学层面的观察:AI 让获取答案变得异常容易,而这恰恰削弱了软件工程学习中"克服困难"这一环节的价值。

Zhen Lu 对此深表认同,并进一步提出:"挣扎"本身不应该是一个人独自完成的。 他以 RunPod 内部的实践举例:公司打造了一个集成到 Slack 中的数据智能体(Data Agent),但从一开始就做了一个关键决策——禁止私密聊天模式。所有人都在同一个群组中向智能体提问,每个人都能看到他人的问题与答案。

这一设计源于一个朴素信念:学习应当是协作的。当一个人遇到问题并向智能体提问时,其他同事往往会主动补充:"你有没有考虑过这个角度?"——这种协作效应是当前 AI 编程助手所缺失的。Zhen Lu 直言,即使是 Claude Code 这样的工具,本质上也是一对一的私密对话,过程中的学习与洞见容易消散在虚空中。

开发者社区的演进方向

Zhen Lu 对 Stack Overflow、Reddit 等汇聚了大量技术知识的平台表达了敬意,同时也指出它们需要在 AI 时代持续演进。他期待看到更多产品形态涌现,以回应"协作式学习"这一核心需求——让 AI 时代的技术讨论不再孤立,而是成为可沉淀、可共享的知识资产。

他认为,RunPod 这类平台的存在意义,正是为开发者在与 AI 协作的"挣扎"过程中提供支撑。

延伸阅读

 
内容管家

发表评论