我让AI智能体用OpenClaw学做饭,它第一锅就炒糊了……但后来

这件事听起来像个段子,但确实是我亲手干的。

让一个AI智能体去学做饭,用的还是OpenClaw——一个能把大模型和物理动作连在一起的框架。我的设想很简单:让AI自己看菜谱、自己判断火候、自己翻锅。结果呢?第一锅,炒糊了。不是那种微微焦黄的糊,是锅底能刮出一层黑壳的那种。

但后来的事情,让我彻底改变了想法。

翻车现场:AI为什么连炒菜都搞不定?

当时我给AI的任务是“做一盘番茄炒蛋”。OpenClaw的控制逻辑大致是:视觉识别食材→对照菜谱步骤→控制机械臂执行动作。听起来很完美,对吧?

问题出在“火候”上。

AI严格按照菜谱写的“中火炒2分钟”去执行,但它忽略了一个关键——锅已经烧热了,油温偏高。人类会通过观察油烟、听声音来调整,但AI的第一版逻辑里没有这个“事前判断”。它忠实地倒了油,忠实地等了30秒,然后下蛋液。结果蛋液进去的瞬间就焦了,它还在按部就班地数2分钟。

更“致命”的是,OpenClaw的反馈回路是周期性的——每隔几秒才采样一次状态。等它“发现”已经糊了,锅底早就救不回来了。

那锅菜的归宿是垃圾桶。我甚至没尝,光闻就知道不行。

转折点:AI真正开始“学习”

失败之后,我没有改代码,而是做了一件事:把炒糊的全过程数据喂回给模型,包括视频、温度曲线、动作时间戳。然后在Prompt里加了一句话——“你要同时关注预期结果和当前状态之间的差距。”

接下来发生的变化,让我没想到。

它开始“试探”了。第二次尝试,AI没有直接执行完整菜谱,而是先把油烧热,然后下了一小撮蛋液——大概只有正常量的五分之一。它要测温度。看到这撮蛋液迅速起泡但没焦,它才把剩下的蛋液倒进去。

这不是我教的。OpenClaw的框架允许模型自主拆分任务步骤,它在失败后自己学会了“先测后动”的策略。

更让我惊讶的是,第三次炒菜时,AI主动降低了翻锅的频率。它通过视觉判断发现鸡蛋表面已经定型,再翻会碎,于是停手了。一个AI智能体,在灶台前“知道什么时候该不动”——这种感觉很奇妙。

从炒糊到煎蛋满分:AI学了什么?

连续跑了十几轮之后,AI用同一个锅、同一个炉灶、同一批食材,做出了我能给90分的番茄炒蛋。锅底干干净净,没有一丝糊痕。

它学会了几件具体的事:

第一,预热阶段的温度预估。AI开始根据锅的初始温度和加热时间,预判什么时候下油最合适。这本质上是个时序预测问题,大模型的模式匹配能力恰好用得上。

第二,动作的“粒度控制”。刚开始AI只会执行“翻锅”这个完整动作,后来它学会拆成“轻推”“抖动”“翻面”三级。该粗鲁的时候粗鲁,该温柔的时候温柔。

第三,最关键的——它学会了主动中断。当视觉检测到鸡蛋颜色变化速度超标时,AI会立即停止当前步骤,跳到下一步。这在OpenClaw的默认行为里是不存在的,是它在反复失败中“发现”的最优策略。

这件事让我重新理解AI

很多人说AI做饭是噱头。确实,如果只看到第一锅炒糊,我也会这么想。

但后来那十几锅告诉我一个道理:AI智能体不是“笨”,而是它需要一套能容纳“失败—调整—再尝试”的闭环。OpenClaw提供了一个很好的实验场——它让AI的行为不再局限于输出文字或代码,而是真正作用于物理世界,然后从结果中学习。

更重要的是,我发现自己之前的期望是错的。我以为AI应该一次就对,但它学做饭的方式其实和人很像:第一次手忙脚乱,第一次搞砸,然后慢慢找到手感。区别在于,人炒糊三锅可能就不想再试了,AI炒糊三锅之后,第四锅就开始总结了。

后来我把这个项目分享给几个做AI的朋友,大家讨论最多的不是“AI能不能取代厨师”,而是“我们该怎么设计让AI犯错的空间”。如果每次失败都要重置系统,那就永远得不到那个会主动测温、会轻推鸡蛋、会在关键时刻停手的智能体。

第一锅炒糊的锅,洗洗还能用。但那个从糊锅开始一步步学会做饭的AI,让我看到了比完美执行更有价值的东西——它开始理解什么叫“差不多好了”,什么叫“再等一下就晚了”。

这些词,原本我以为只属于人类的厨房。