鱼C论坛

 找回密码
 立即注册
查看: 36|回复: 0

[最新资讯] 七人小团队「Poetiq」反杀巨头实验室!创业者花千万微调,结果被新模型一夜清零!

[复制链接]
发表于 昨天 12:00 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
a8fb329d6ed88464a749a8d84d70534ae9bb4b1a.jpg@308w_174h.jpeg

不要再把大模型微调当成垂直赛道的万能钥匙了。

很多AI创业者一上来就想收集行业数据、训练专属模型,仿佛只有把模型重新打磨一遍,才能做出真正有壁垒的产品。

在线学习:



但现实往往很残酷:

你可能刚花了几个月清洗数据、调参数、堆预算,好不容易把旧模型推到某个领域的高点,结果产品一上线,OpenAI、Anthropic或Google就发布了更强的新基座模型。那一刻你会发现,自己砸进去的大量时间和资金,并没有变成护城河,反而像是在高速迭代的浪潮前反复推石头上山。

真正值得警惕的,不是微调本身,而是把“重新训练模型”误当成唯一升级路径。

现在更值得关注的一条路线,是不要急着改造模型的大脑,而是在模型之上搭一套能持续进化的外部系统。

由前Google DeepMind研究人员创立的Poetiq,就在尝试这件事。他们的核心思路不是重训底座,而是通过一套meta-system,把提示策略、推理流程、模型组合和结果校验做成可递归优化的“外骨骼”。

这套方法已经在公开基准上打出很夸张的结果:

在Humanity’s Last Exam带工具版本上,Poetiq做到55.0%,高于Claude Opus 4.6的53.0%;在ARC-AGI-2上,ARC Prize官方确认,Poetiq基于Gemini 3 Pro的refinement方案做到54%,显著高于当时顶尖商业模型的公开成绩。

更关键的是,这家公司公开资料里一度只有6到7人的精干团队,却靠系统层优化打穿了巨头靠模型本体和算力堆出来的优势。

这背后真正颠覆行业的,不只是分数,而是工程哲学的变化。过去大家做AI应用,更像手工雕琢:

人类写prompt、调workflow、补数据、修bug,试图一点点驯服黑盒。

Poetiq这类方法则在传递一个更激进的信号:既然人类越来越难完整理解大模型的内部失败模式,那就把“如何更好地调用模型、组合模型、逼出模型潜力”这件事也交给系统自己去迭代。

未来拉开差距的,也许不再是谁手里GPU更多,而是谁先拥有一套能让智能自己生长、自己纠错、自己放大能力的机制。

真正可怕的不是模型变强,而是模型之上的系统开始学会如何让模型持续变强。

评论区聊聊你的想法



                               
登录/注册后可看大图




如果有收获,别忘了评分


                               
登录/注册后可看大图


                               
登录/注册后可看大图
                                                                    

小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2026-3-10 04:01

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表