在我刚刚开始 Vide Coding 的时候,就有个想法 —— 既然代码是被 LLM 生成出来的,就不应该再被视作「源代码」而是某种中间产物。更极端一点,既然我们已经决定了要用 LLM 来写代码,就不应该再去碰代码了(这就好比是在手动编辑构建产物,妥妥的反模式)。甚至,你都不应该去看代码,而是像一个产品经理一样,只关心程序的最终表现。
于是基于这样的思路,我们做了一个从一开始就不支持开发者查看代码,而是直接基于实时预览来发送指令的 Vibe Coding 工具:
或者,也许 AI 时代真正的「源代码」应该是你发送过的所有指令才对,所以我们还提供了一个 Design Doc 模式,前面通过传统聊天方式发送的指令会被自动同步进 Design Doc 。当然你也可以直接修改 Design Doc ,在修改后 LLM 可以根据改动部分的 diff 去实现改动:
这样一来,只要你对软件设计有想法,无论你会不会编程,都可以开发程序了。于是我们干脆一步到位:
- 自动的预览、部署、CDN 支持
- 内建的帐号、登录和权限系统(直接使用 Speed.so 帐号)
- 内建的数据库支持(甚至还区分开发和生产环境,避免 LLM 删库)
- 内建的对象存储和 LLM 支持(测试中)
这给了 Speed.so 一个非常不同的定位 —— 它不是给程序员的辅助开发工具,而是一个快速把有趣的想法实现,并分享给朋友的「小程序」平台。就比如说我们这里有个乒乓球台,我想做一个大家都可以添加比赛记录的排名系统,于是只花了不到一个小时(包括测试和改进)就做了一个包含前后端、数据库、登录,甚至是多租户的这样一个 ELO 排名系统(Demo)。
你可以在 Gallery 里看到其他我们内部制作的小程序:
我们目前还没考虑如何定价,只是简单地计算 LLM 成本来避免产生过高的支出,下面每个链接包含 $10 的额度:
https://speed.so/?inviteCode=TSDA71HL
https://speed.so/?inviteCode=0VC4J3UG
https://speed.so/?inviteCode=RHBLUFP9
https://speed.so/?inviteCode=5HQSR1TH
https://speed.so/?inviteCode=HG0999Q0
或者也可以加入我们的 Discord 群组来获取额度和更好地交流,也欢迎把有趣的小程序提交到 Gallery:
尚存问题:
- 目前仅支持 Google 登录。
- 这并不是正式发布,产品还不完善(前端代码 AI 含量较高),只是和大家分享我们对这一思路的尝试。
- 因为底层 LLM 的不确定性,有时会进入异常状态或中断,这时候点重试( Resume )总是没问题的。
- 虽然我们希望尽可能隐藏代码细节,但目前的日志和 LLM 生成的总结中仍存在很多实现细节,有待优化。
- 我们整个产品是基于英文构建的,但 LLM 是可以看懂任何语言的,你可以用中文向它发送指令(虽然很多时候它会回复英文)。
- 建议先从一个需求清晰的「小程序」开始尝试,LLM 会给你提供比较好的正反馈,在项目复杂的情况下 LLM 的表现确实会下降很多。
- 模型选择默认是 DeepSeek ,性价比较高(我们还是非常成本敏感的,没钱可烧),如果要更好的效果的话可以手动改成 Gemini 3 Pro.
关于标题:
我觉得并不算标题党,做一个 AI 项目的时候,必然是要面向未来、必然要假设未来会有更强的模型出现的。就好像我们刚刚开始尝试开发 AI Coding 工具时,还只有 GPT-4o 和 Claude 3.5 并且价格昂贵,但随着我们自己项目的开发,不断有新的更具性价比的模型出现,让产品最终到了一个可用的水平。
Leave a Reply Cancel reply