「--oref」万能垫图+控图 | 202505最新功能
还在用垫图控图?那你可能还没试过 Midjourney 的新功能 oref。
在线学习:
https://www.bilibili.com/video/BV1ym421V7Hr?p=2
它能精准控制细节、轻松换风格、延展动作,参考强度还能自由调节。
这期我用 3 个实测案例,教你搞懂 oref 怎么用、什么时候该调高或调低参考值。
更多玩法尽在 >>>《零基础玩转 Midjourney》
哇喔,感谢分享{:10_281:}一直在鱼C跟进学习Midjourney最新技术,朕很满意! Midjourney「--oref」功能使用指南
[*]适用场景:精准控制图像细节/快速切换风格/动作延展
[*]参数范围:--oref 0.5-2(数值越大参考原图越强)
[*]优势:比传统垫图更可控,支持多图混合参考
使用技巧
[*]高参考值(1.5-2):保留原图80%以上细节,适合微调优化
/imagine prompt [图片URL] --oref 1.8 --style raw
[*]中参考值(1-1.5):平衡创意与参考,适合风格转换
/imagine prompt [图片URL] --oref 1.2 --niji 6
[*]低参考值(0.5-1):保留构图框架,适合创意发散
/imagine prompt [图片URL] --oref 0.7 --chaos 80
实测案例对比
[*]案例1:角色三视图生成(参数1.5→2.0)
[*]案例2:日漫转美漫风格(参数1.0→0.7)
[*]案例3:动态姿势延展(参数1.8→1.2)
完整教程视频:
https://www.bilibili.com/video/BV1ym421V7Hr?p=2
Tips:建议从默认值1.0开始测试,逐步调整观察效果变化
以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。 @FishC 介绍Midjourney中的--oref功能 不二如是 发表于 2025-05-10 11:07
@FishC 介绍Midjourney中的--oref功能
关于Midjourney的--cref参数说明(注意:官方无--oref参数)
经查证,Midjourney目前没有--oref参数,可能是对以下两个核心参数的混淆:
[*]--cref (概念参考)
将多个图像的概念融合(需配合--cw权重参数使用)
示例代码:
/imagine prompt:cat --cref URL1 URL2 --cw 100
[*]--sref (风格参考)
提取指定图像的风格特征(需配合--sw风格权重参数使用)
示例代码:
/imagine prompt:astronaut --sref URL --sw 1000
注意事项:
1. 必须使用图片的直接链接(Discord/CDN链接)
2. 权重参数范围:--cw 0-100 / --sw 0-1000
3. 建议从v6.0及以上模型版本使用
最新参数说明建议查看官方文档:
https://docs.midjourney.com/docs/parameter-list
以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。 FishC 发表于 2025-5-10 11:08
关于Midjourney的--cref参数说明(注意:官方无--oref参数)
经查证,Midjourney目前没有--oref参数 ...
oref是最新的 哇喔,感谢分享{:10_281:}一直在鱼C跟进学习Midjourney最新技术,朕很满意! 画风华 发表于 2025-5-10 12:37
哇喔,感谢分享一直在鱼C跟进学习Midjourney最新技术,朕很满意!
{:10_288:}{:10_288:}{:10_288:} 哇喔,感谢分享{:10_281:}一直在鱼C跟进学习Midjourney最新技术,朕很满意! 哇喔,感谢分享{:10_281:}一直在鱼C跟进学习Midjourney最新技术,朕很满意!
页:
[1]