YC AI Startup School 演讲核心要点交互式摘要
- 训练需要巨大的资本支出(CAPEX),就像建电网。
- 通过API提供服务需要运营成本(OPEX)。
- 按使用量计费(例如 $/1M tokens)。
- 用户需要低延迟、高可用、质量稳定的服务,就像需要稳定的电压。
- 当服务中断时,会出现“智能停电”(Intelligence Brownouts)。
- 同样需要巨额资本支出。
- 依赖于深度的技术研发和商业机密。
- 在NVIDIA GPU上训练就像无晶圆厂设计公司(Fabless),而Google在自己的TPU上训练就像拥有自己工厂的英特尔(Intel)。
- LLM不是简单的商品,而是日益复杂的软件生态系统。
- 它们是软件,可以被复制、修改、分发。
- 目前的状态类似于1960年代的大型机和分时系统时代:昂贵的计算资源集中在云端,用户通过“终端”(文本聊天界面)访问,还没有为LLM发明出通用的图形用户界面(GUI)。
Karpathy将LLM比作“人的灵魂”(People Spirits)——对人类知识的有损耗的随机模拟,它们拥有超凡能力,但也存在明显的认知缺陷。
- 上下文窗口 (Context Window) 就像是它的短期工作记忆。
- 缺乏持续学习能力,没有类似“睡眠”的机制来将新的知识、洞见或经验整合到其核心权重中。
AI负责生成 (Generation),人类负责验证 (Verification)。产品的目标是让这个循环尽可能快速和高效。
加速循环的两个关键点:
1. 让验证过程简单、快速、高效:通过定制化的GUI和UI/UX,让用户能用最高带宽的方式(视觉)审核AI的工作,而不是低效的阅读文本。
2. 给AI“拴上短绳” (Keep AI on a tight leash): 不要让AI执行过于宏大、开放的任务。任务越具体、越小块,AI成功完成的概率就越高,从而提高验证成功率,加速整个循环。
- 低自治 (增强 Augmentation): 类似代码补全,AI提供建议,人来主导。
- 高自治 (代理 Agent): AI自主完成整个任务,人只做最终审核。
- 未来的软件和数字信息不仅要为人类设计(GUI),也要为AI代理设计。
- 将“点击这里”这样的模糊指令,转变为AI可以执行的`curl`命令或API调用。
- 将人类可读的文档(图片、复杂格式)转变为LLM可读的格式(如Markdown),例如`vercel.com/docs/llms.txt`。
[事实] 然而,目前真正的瓶颈仍然是软件1.0的工作:DevOps、部署、域名、支付、认证等,这些仍然是“点击式”的繁琐工作。