鱼C论坛

 找回密码
 立即注册
查看: 140|回复: 3

[吹水] 用糖「重塑哪吒」肉身!太牛了

[复制链接]
发表于 2025-9-9 20:00:00 | 显示全部楼层 |阅读模式

拼手气红包

红包金额剩余0鱼币

剩余红包0个

查看红包>

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
73ffaa9605b9e68699f13c141c5fc0b09d66cd21.jpg

堪比女娲造人:
(提示:哪吒之魔童闹海用的什么材料塑身)



评论区聊聊你的想法



                               
登录/注册后可看大图




如果有收获,别忘了评分


                               
登录/注册后可看大图


                               
登录/注册后可看大图
                                                                    
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

 楼主| 发表于 2025-9-10 08:15:41 | 显示全部楼层
哇喔,下次请从细胞开始捏!
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2025-9-10 08:15:47 | 显示全部楼层
@FishC 简介哪吒
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 2025-9-10 08:16:12 | 显示全部楼层

@FishC 简介哪吒


哪吒(NeZha)通常是指一个中文预训练语言模型,由华为诺亚方舟实验室研发。它基于Transformer架构,专门针对中文自然语言处理(NLP)任务优化,比如文本分类、命名实体识别、情感分析等。

主要特点:
  • 支持字词混合表示,更好地捕捉中文语义。
  • 采用相对位置编码,提升长文本处理能力。
  • 提供不同规模的模型(如Base/Large),适应多种计算需求。


简单示例(使用Hugging Face Transformers库加载模型):

  1. from transformers import AutoTokenizer, AutoModel

  2. tokenizer = AutoTokenizer.from_pretrained("huawei-noah/nezha-base-zh")
  3. model = AutoModel.from_pretrained("huawei-noah/nezha-base-zh")

  4. inputs = tokenizer("哪吒是一款优秀的中文模型", return_tensors="pt")
  5. outputs = model(**inputs)
复制代码


注意:实际使用时需安装 transformers 库。哪吒适用于学术和工业场景的中文NLP任务。

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-9-30 05:37

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表