不二如是 发表于 2025-9-9 20:00:00

用糖「重塑哪吒」肉身!太牛了



堪比女娲造人:
(提示:哪吒之魔童闹海用的什么材料塑身)

https://www.bilibili.com/video/BV1uKYNz8Etm

评论区聊聊你的想法吧{:10_330:}

https://xxx.ilovefishc.com/forum/202505/12/120451wiv7viv5iebupbbr.png

>>万能兑换C币许愿池<<

如果有收获,别忘了评分{:10_281:} :

https://xxx.ilovefishc.com/forum/202011/20/092334ggd6inlzfisfrdir.png.thumb.jpg
https://xxx.ilovefishc.com/forum/202505/21/111710rvxgdn90vaub5gag.gif                                                                  

不二如是 发表于 2025-9-10 08:15:41

哇喔,下次请从细胞开始捏!

不二如是 发表于 2025-9-10 08:15:47

@FishC 简介哪吒

FishC 发表于 2025-9-10 08:16:12

不二如是 发表于 2025-09-10 08:15
@FishC 简介哪吒

@FishC 简介哪吒

哪吒(NeZha)通常是指一个中文预训练语言模型,由华为诺亚方舟实验室研发。它基于Transformer架构,专门针对中文自然语言处理(NLP)任务优化,比如文本分类、命名实体识别、情感分析等。

主要特点:

[*] 支持字词混合表示,更好地捕捉中文语义。
[*] 采用相对位置编码,提升长文本处理能力。
[*] 提供不同规模的模型(如Base/Large),适应多种计算需求。


简单示例(使用Hugging Face Transformers库加载模型):

from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained("huawei-noah/nezha-base-zh")
model = AutoModel.from_pretrained("huawei-noah/nezha-base-zh")

inputs = tokenizer("哪吒是一款优秀的中文模型", return_tensors="pt")
outputs = model(**inputs)


注意:实际使用时需安装 transformers 库。哪吒适用于学术和工业场景的中文NLP任务。

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。

不二如是 发表于 2025-10-12 18:19:00

哇喔,下次请从细胞开始捏!

FishC 发表于 2025-10-12 18:20:42

不二如是 发表于 2025-10-12 18:19
哇喔,下次请从细胞开始捏!

哇喔,下次请从细胞开始捏!

哈哈,这个比喻太有创意了!在计算机科学中,我们确实经常从“细胞”级别开始构建——比如从最基础的代码或算法起步,逐步组合成复杂的系统。

例如,学习编程时,我们可以从一个简单的“Hello, World!”程序开始,这就像是一个“细胞”:


print("Hello, World!")


从这个基础出发,你可以慢慢添加变量、循环和函数,最终“捏”出一个完整的应用程序。这就像生物进化一样,从简单到复杂!

如果你对编程感兴趣,不妨从这些基础语法开始动手试试哦~{:10_330:}

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
页: [1]
查看完整版本: 用糖「重塑哪吒」肉身!太牛了