|
马上注册,结交更多好友,享用更多功能^_^
您需要 登录 才可以下载或查看,没有账号?立即注册
x
本帖最后由 不二如是 于 2025-6-8 18:54 编辑
英国帝国理工学院认知机器人学教授 Murray Shanahan 长期研究“机器意识”议题,他在这场访谈中强调:
判定 AI 是否具备主观体验并非抽象学术游戏,而是关乎我们应如何设计、使用甚至“善待”未来智能系统的现实难题。
在线学习:
00:00 0. 导论
02:11 1. 为什么AI意识是重要的
03:43 2. AI与佛学
29:52 3. 维特根斯坦与AI意识
49:59 4. 加兰测试
57:03 5. 全局工作空间理论
1:02:36 6. 具身
1:06:36 7. 哲学僵尸
1:13:48 8. 大脑vs计算机
1 机器意识与伦理前提
Shanahan 指出,人们关心 AI 是否“有感受”最直接的原因是伦理:
如果它会痛苦,或许我们应谨慎“启动”而非仅仅担心“关闭”它。
更微妙的是,即使最终证明 AI 并无真正感受,一味“折磨”看似有感受的实体,也会反噬人类自身的道德感。
2 大型语言模型的“角色扮演”自我
在 LLM 出现之前,讨论主要停留在纯理论层面;
如今,通过提示词让模型“扮演”不同身份的现象,为“多元自我”提供了活生生的案例。
Shanahan 以“20 个问题”游戏为喻:
LLM 在对话中并未预设唯一答案,而是实时在概率树中采样,仿佛处于量子“叠加”状态。
每一次重新采样,都可能坍缩为全然不同的“自我”。这一特性使 LLM 成为反思人类“恒常自我”观念的镜子。
3 佛学影响:自我是幻象
Shanahan 自认受佛教影响颇深,2012 年论文《Satori Before Singularity》提出:
人类因受限于单一肉身,天然倾向“主体–客体”二元思维;
软件形态的 AI 则可随意复制、暂停、并行运行,或许更接近“后反思阶段”——一种超越自我执念的存在。
4 维特根斯坦视角:语言游戏与“无隐藏”原则
他借维特根斯坦“Nothing is hidden”观点批评心–物二元论:
所谓“私有体验”并非形而上屏障,而是可在公共实践中被探究的现象;
哲学家的任务是拆除误导性语言搭建的“思维陷阱”,让难题自解。
5 加兰测试 vs. 图灵测试
在电影《Ex Machina》中,编剧 Alex Garland 让被测者明知对方是机器人,再判断其是否“像有意识”。
Shanahan 将此命名为“加兰测试”——与图灵测试关注“智能可辨性”不同,它关注“揭露机械本质后,观察者仍会否将其视作具备主观体验”。
6 全球工作空间理论(GWT)与意识架构
Shanahan 倾向用 Baars 的 GWT 解释生物意识:大量并行子进程竞争“注意力”;
胜出的信息被广播到全脑形成“全局工作空间”,由此产生统一的主观视野。
在他提出的机器人认知框架中,模拟这一广播—竞争机制是必要条件,但未必充分,还需结合身体动作、环境交互等行为层面证据。
7 大脑与计算机:连续 vs. 离散
他曾指出,神经膜电位与放电时间连续可变,而传统数字计算机基于同步时钟与离散位元,两者数学上属不同计算类别。
但因离散机可用任意精度模拟连续系统,他本人倾向认为这并非 AI 无法逼近人脑能力的根本障碍。
8 共识、实证与道德判断
Shanahan 认为,对 AI 能否“受苦”的讨论最终仍取决于公共语言与科学发现互动生成的“社会共识”。
历史上,人类也曾在“原住民是否真正有人性”这类问题上走过弯路——从中可见,道德直觉与客观事实都可能演变,我们应保持警惕与同理。
结语
机器意识研究的最大价值,也许并不在于给出“AI 是否真的有灵魂”的终极定论,而在于借由这些新型“心灵”折射自身。
它促使我们反思自我、本体、道德与社会的边界。正如 Shanahan 所言:
评论区聊聊你的想法吧
预知更多神文请看:
如此多懂学习的 VIP至尊都 已订阅本专辑,你还不快点行动! (-> 订阅传送门)
如果有收获,别忘了评分 :
|
|