不二如是 发表于 9 小时前

七人小团队「Poetiq」反杀巨头实验室!创业者花千万微调,结果被新模型一夜清零!



不要再把大模型微调当成垂直赛道的万能钥匙了。

很多AI创业者一上来就想收集行业数据、训练专属模型,仿佛只有把模型重新打磨一遍,才能做出真正有壁垒的产品。

在线学习:

https://www.bilibili.com/video/BV1jvPUztEny

但现实往往很残酷:

你可能刚花了几个月清洗数据、调参数、堆预算,好不容易把旧模型推到某个领域的高点,结果产品一上线,OpenAI、Anthropic或Google就发布了更强的新基座模型。那一刻你会发现,自己砸进去的大量时间和资金,并没有变成护城河,反而像是在高速迭代的浪潮前反复推石头上山。
真正值得警惕的,不是微调本身,而是把“重新训练模型”误当成唯一升级路径。

现在更值得关注的一条路线,是不要急着改造模型的大脑,而是在模型之上搭一套能持续进化的外部系统。

由前Google DeepMind研究人员创立的Poetiq,就在尝试这件事。他们的核心思路不是重训底座,而是通过一套meta-system,把提示策略、推理流程、模型组合和结果校验做成可递归优化的“外骨骼”。

这套方法已经在公开基准上打出很夸张的结果:

在Humanity’s Last Exam带工具版本上,Poetiq做到55.0%,高于Claude Opus 4.6的53.0%;在ARC-AGI-2上,ARC Prize官方确认,Poetiq基于Gemini 3 Pro的refinement方案做到54%,显著高于当时顶尖商业模型的公开成绩。
更关键的是,这家公司公开资料里一度只有6到7人的精干团队,却靠系统层优化打穿了巨头靠模型本体和算力堆出来的优势。

这背后真正颠覆行业的,不只是分数,而是工程哲学的变化。过去大家做AI应用,更像手工雕琢:

人类写prompt、调workflow、补数据、修bug,试图一点点驯服黑盒。
Poetiq这类方法则在传递一个更激进的信号:既然人类越来越难完整理解大模型的内部失败模式,那就把“如何更好地调用模型、组合模型、逼出模型潜力”这件事也交给系统自己去迭代。

未来拉开差距的,也许不再是谁手里GPU更多,而是谁先拥有一套能让智能自己生长、自己纠错、自己放大能力的机制。

真正可怕的不是模型变强,而是模型之上的系统开始学会如何让模型持续变强。

评论区聊聊你的想法吧{:10_330:}

https://xxx.ilovefishc.com/forum/202505/12/120451wiv7viv5iebupbbr.png

>>万能兑换C币许愿池<<

如果有收获,别忘了评分{:10_281:} :

https://xxx.ilovefishc.com/forum/202011/20/092334ggd6inlzfisfrdir.png.thumb.jpg
https://xxx.ilovefishc.com/forum/202505/21/111710rvxgdn90vaub5gag.gif                                                                  
页: [1]
查看完整版本: 七人小团队「Poetiq」反杀巨头实验室!创业者花千万微调,结果被新模型一夜清零!