焦虑社会:谁在主导人工智能的叙事?| 播客E03

本期主播
Zhuoran:AI治理研究者,重点关注科技法和STS领域,拥有财经媒体和云计算&AI行业的交叉从业背景,并参加过多个AI Safety治理研究项目。
00:17 一个问题的产生:谁在主导AI的叙事?这是认知之争还是权力之争?
01:07 拉图尔的警示:我们的二元思维陷阱
03:09 技术焦虑:登船还是被淹没?
04:26 "半成品社会"的来临:AI的新应用为何能在短时间内风靡全球,甚至存在不成熟的情况被广泛推广?
05:45 技术乌托邦背后具体的人:14岁藏族少年的故事
09:28 一支打动我的科技广告:Behind the Mac
10:46 《幽灵工作》作者告诉我:什么是创新的基础?
12:44 技术性消失如何将技术塑造成奇迹,如何使人类劳动变得隐形
14:09 前沿AI风险的提出:AI实验室们的议程设置
17:05 红队报告的惊人发现:AI能力的失控边界
揭秘Anthropic等公司内部红队测试的震撼结果:最新AI模型已在某些领域超越人类专家能力,生物安全测试结果令人不安,暴露出技术发展的失控潜力。
18:37 全球AI治理联盟的崩塌
从英国布莱切利峰会到巴黎行动峰会,安全一词从标题中消失,美欧英同盟破裂。
20:00 模型竞赛,一个字:卷
21:29 “前沿AI风险”如何塑造政策真空?
23:15 云计算巨头:AI革命背后真正的权力持有者
24:25 北大人工智能研究院朱松纯:AI叙事存在认知偏差,最难解决的问题是人文学科关注的社会复杂系统。
26:24 存在风险叙事的真相:源自顶尖科学家的担忧
28:33 如果海德格尔活着,会如何批判硅谷?
31:25 AI创业者是当代“奥本海默”吗?科技精英的道德幻觉
34:15 智能概念的哲学革命:从人类中心到宇宙尺度
35:45 意识与智能的解构:AI的存在主义挑战
39:57 可解释性AI:我们不够重视的关键研究领域
40:34 Stop Sign停车标志实验:自动驾驶到底能和人类一样看懂路标吗?
42:56 破除单一叙事:重塑AI讨论的多元声音
44:13 重启对话:技术即人

大家好,我是Zhuoran,欢迎来到智幻时刻。今天是一期随机掉落的节目,它是从若干个对相关的对话或者讨论中提炼出的一个问题:如今,谁在主导人工智能的叙事? 这只是认知问题,还是权力问题?
我想从一个观点开始讲起:这两年来,AI的发展让我们感觉,自己似乎处在人类历史上技术知识最密集、最普及的时代,这种感受带来了焦虑,带来了不确定性的感受。
如果你对技术哲学、或者科学社会学感兴趣,拉图尔一定是绕不过去的学者,他提出的很多观点至今用来形容AI带来的感受依然是恰到好处的。
简单来说,他认为现代性的根本矛盾在于我们不断创造混合物(人与非人的网络),却又在概念上坚持将它们分开。
这正是今天AI领域的写照——我们创造了人机交互的的工具、网络空间,却执着于用二元思维理解它,所以才会有机器是不是会取代人类这种焦虑。
如果你喜欢玩社交媒体,应该会有这样的感受。在社交媒体上,能看到各种各样的科技博主或者知识博主,在分享AI的新工具。即使你不想刷到,可能也会被各种AI工具的教学内容淹没 — 博主们会如何用AI画画、搭建知识库、无基础编程写出APP…但几乎很少有人在讨论AI的限制是什么,AI对人类意味着什么,以及我们为什么需要它。
当然也有一些学者在主流媒体谈论过这些话题,他们的咖位也很大,更多是一些法律研究者,也有公共政策专家、也有一些独立研究者,从流量的角度看,这些话题的关注度却较少,影响力也是远远不及实用型的博主的。
如果说是内容太专业,那绝对是说不过去的。因为相较起来,让没有技术背景的人去搞清楚transfromer、AI Agent和workflow这些术语才更难。有趣的是,你会发现,大家学起来这些技术内容来不仅津津有味,甚至可以说是吃苦耐劳。
为什么会这样呢?
答案也许很简单:就像每一次技术浪潮来袭时一样,大多数人都莫名其妙地上船,跟着海浪颠簸也好,在潮头上寻找风口也罢,即使无法成为那个引领时代的人,我们也希望自己至少能做到不掉队。
除非你已经是某个行业的大师,有很强大的话语权去say no,比如宫崎骏,先不说吉卜力未来会不会拥抱AI,但我想宫崎骏应该是可以不在意AI了。
但如果你是还想学习一些新东西,体验新科技的人,你最近可能也正好在玩ChatGPT4o。这种体验带来的感受是两方面的,一方面肯定是惊奇、开心,技术在短短3、4年间就经历了整个生成范式的革新,可以想见,是多少令人心潮澎湃的事情。
另一方面,这些新应用在短时间内就像病毒传播一样风靡。很多应用甚至都还不成熟,但在网上确实铺天盖地的推广、好话。像昨天,我就用了智谱AutoGLM沉思,一个新的AI Agent,来帮我搜索一些资料。但进入到第二轮对话,它就已经开始有些信息错乱。当然,智谱提前声明过,这只是个初级状态的产品。
有意思的是,这样的声明在过去也是很难见到的。这意味着这个市场迫使每个企业、每个人在半成品的状态,在还没有准备好的状态就冲锋上阵。而用户、消费者被迫接受的也是一个未经准备好的状态。
在现在,我们已经开始不得不面对一个“未成品社会”。而在其中,有许多问题被掩盖。
有一本书叫做《幽灵工作》。前阵子,我和这本书的作者Mary Gray表达了我对这本书的喜爱,Gray很高兴地回复我说,在她心中,现在这种基于任务的工作模式也是未来 AI 创新的基础。这很重要。
Gray目前依然是微软研究院高级首席研究员,她也是印第安纳大学信息学和工程学院的教师。
书中描述了一位印度单亲妈妈如何做数据标注员,靠给硅谷科技大厂接临时工作养活自己。但硅谷大厂们实际上并不知道网络的另一端是谁,因为它们通常依靠外包平台分发这些任务。这意味着,在我们看不见的地方,有许多人,不是那些经常出现新闻里面的人,是暴露在技术最不堪、最原始状态之下的。

这引出了AI风险防控与劳动力暴露的话题,它也是如今我们进行AI治理时最重要的议题之一。
在这两年,这个话题也被许多政治经济学家关注到了。比如去年,哈佛法学院实践教授兼劳工与公正经济中心主任Sharon Block就在一次学术研讨会上说,她觉得“人工智能”这个词本身就存在问题。
因为”人工"这个术语,它掩盖了背后真实的人力投入,特别是标注员、内容审核员等全球南方国家低薪工作者的贡献。这种现象在劳工研究中被称为“技术性消失”(technological disappearing),指的是将人类劳动因技术而变得隐形化的过程。
想想这种语言上的魔法:通过使用“人工智能”或者强调"创新",整个行业成功地将技术呈现为某种独立、自主的奇迹,而非依赖于大量人类劳动的系统。
这些标注员有时每小时赚不到2美元,内容审核员则长期面对暴力、色情等极端内容,承受巨大的心理健康风险。但在主流叙事中,他们几乎不可见,或者是以某种不得已被牺牲的角色出现。
这里我想引入一点,也是今后可能值得单独开一期和行业里的专家进行对话的部分。就是以上政治经济学关注的比较迫近的问题是如何在AI的公共讨论里消失的。
在美国,围绕硅谷的核心话题一定是商业导向的,这无可厚非。但在一项新技术袭来时,照例,也会出现一批批判的声音。
但在过去三四年时间里,这些批判的声音都不约而同地导向了另一个略显晦涩的地带:叫做Frontie AI Risk,前沿AI风险。
什么是前沿AI风险呢?这个属于第一次走进公众视野,是出现在OpenAI发布的一篇报告中。
当时ChatGPT已风靡全球,掀起了自然语言技术革命。OpenAI在这种背景下提出了前沿AI的概念,意思是生成式AIde技术在沉寂多年后突然涌现,这意味着如果我们延续这条路径走下去,可能很快就会迎来技术奇点。
经由OpenAI描绘的最先进的AI模型既能带来巨大利益,但又因太强大、无所不能,因此会对全球的公共安全构成严重的威胁。这些风险可能源于此类模型的滥用、其意外行为或控制难度。
例如,这些人工智能系统可能被用于制造生物武器、进行复杂的网络攻击或产生具有说服力的虚假信息。
OpenAI成为了那个提议监管前沿风险的倡导者,在2023年的博客中,他们写道,为了应对这些挑战,至少需要一些对前沿模型的监管基石:
-
(1)制定标准
-
(2)注册和报告,让监管机构了解前沿人工智能的开发过程
-
(3)确保遵守前沿人工智能模型开发和部署安全标准的机制。
在其中,行业自律是重要的第一步。但也需要更广泛的社会讨论和政府干预来制定标准并确保遵守标准。

这篇论文在推广这一术语方面发挥了重要作用,随后,Meta、Google等很多很多公司都在AI系统中嵌入了所谓的Frontier AI Risk的治理框架。并且会定期发布报告,来向公众讲述自己防范前沿风险的措施,以此来提高AI开发过程中的透明度。
最近的一次,我读过的报告是Anthropic,也就是Claude这个模型的公司在3月20日发布的Frontier Red Team工作进展报告,红队是什么呢?AI 红队是一种模拟对手或攻击者的角色,通过主动测试、攻击,来发现 AI 系统漏洞与风险,提升其安全性和防御能力的机制或团队。
由于AI对于社会的许多行业都有影响,在生成式AI的公司中,红队的成员组织是很多元,除了传统网络安全的技术专家,也有律师、公共政策专家、人类学家、哲学家等。
这份红队的工作进展一开头,就非常惊悚地说了一段话:经过评估,AI模型已经显示出了关键能力的“早期预警”的信号,模型正在接近,甚至在某些情况超过了网络安全本科生的水平,也超过了生物学某些领域的专家水平。
不过,目前的模型还没有达到我们认为会给国家安全带来巨大风险的阈值。比如,它仍无法独立进行复杂的网络攻击。在生物方面,Claude从一年前表现不佳到现在,在病毒学评估中,可以轻松超越了专家基线。
在某些前沿的领域,如克隆工作方面,已接近或超过人类专家水平。但在实际生物武器研发能力测试中,即使使用AI辅助的新手也会犯下 “严重错误”,无法完成端到端攻击。
可以说,生物安全和失控等等的议题几乎是主导了现在前沿AI风险的议题。而Frontier AI rish这个术语也借由一些国际会议得到更加广泛的传播,走出了技术圈,走向了更广泛的政治、经济和国家立法的领域。
其中一个标志性的里程碑就是2023年11月,英国布莱切利人工智能安全峰会,进一步得到了大力的传播,成为了主流的议题。这在全球范围内都掀起了一波AI安全的研究热潮。
很多的AI安全组织成立,一部分是依靠国家政府拨出的基金,一部分是大型企业拿出学术来支持全球的相关领域的研究者,以及政策制定专家,来进行培训。
但是,历史就是这么的突然这么变幻莫测,仅仅一年半时间,我们在今年2月的巴黎人工智能行动峰会上就看到,安全这个议题已经从这一系列国际会议中退居二线了。
巴黎人工智能峰会,把安全两个字从标题里拿掉了,变成了行动,其中的意义应该不言而喻。而这一次,曾经主导了布莱切利协议的英国,甚至直接没有来参加。
从AI治理的角度来看,我们也许可以下一个判断,在过去两年时间中,那种美国、欧盟、英国之间形成的基于AI安全的同盟关系已经濒临破裂了,那么它带来的直接后果是什么呢?我相信每个人都在其中能够感受到整个科技的产业界、学术界好像都进入了一种极端的卷到疯魔的状态。
即使你不在科技行业工作,也可能会感受到这样的氛围,一个指标就是去看一些 AI 测评博主的账号,比如说最近非常火的数字生命卡兹克,感觉他已经忙到起飞了,数不清的模型厂商在发新模型,在做新应用,层出不迭的在推出市场、测评、反馈、再优化、再推出。
所以,回到前面的那个问题, OpenAI作为一个带头迎接了涌现,吃到了螃蟹的人,为什么会在自己高速发展期倡导监管呢?而这场监管和安全的讨论最后反而激励了更多模型竞争者的出现,导致了更大的科技竞赛。
这是一种偶然吗?是事与愿违吗?是市场的无理性吗?
我想引用一个科技政策研究所的观点来回答解释这个问题。这个研究所叫做 AI Now,它是2017年成立于美国的。它的联席执行董事Amba Kak在去年哈佛 Ash Center 举办的一个学术圆桌上提出了一个具有批判性的观点。
她说,前沿AI这个概念本身就是模糊的,自从这个概念被提出后,就成功主导了相关政策的讨论方向,它起到了一些转移注意力的效果,导致的最直接后果就是公共政策忽视很多技术在当前社会层面造成的影响,比如说劳动力就业,或者是对隐私保护的冲击。
如果你经常上微博,或者在一些浏览器里面安装了AI插件的话,可能会对这个话题有一定的共鸣,以前如果你要搜索一个人或者一个事情,需要依赖你自己的搜索能力,但现在不需要了,因为 AI 会帮你浏览这个人或者这个事情全部的信息,然后总结成一个成品交在你手上,我们所有的信息都变成了透明的。
在全球这个问题都非常迫切,但是前沿 AI 风险这个术语让监管的框架更多聚焦在了技术本身带来的风险上,而不是它在生产过程中会产生的不平等、不合理上。简单来说,前夜 AI 风险这个词成功地将全球的科技政策从眼下的矛盾转移到了未来的预测和承诺之上,让公众和政策制定者过度的去关注了所谓的存在性风险或者未来的超级智能风险。
我们在讨论人工智能的时候,常常会低估或者忽略这种语义上的争论到底有多大的能量。在一个公共议题的讨论空间中,一个拥有话语权的新兴公司所创造出来的新兴的术语,本质上是为了寻求一场新的权力分配。
当我们采用它所锚定的术语的同时,也就意味着我们接受了它背后的世界观和权力机制,这种术语选择也重新塑造了我们的认知框架。
在这种创造性的新术语背后,我们其实可以看到美国科技公司,尤其是硅谷作为一个创新精神的象征,一个社区,它强大的游说能力和议程设置的能力。
不过在硅谷内部,这些新兴公司也有另一个制衡的力量。
在那场研讨会中, Emba其实还提出了一个我颇有共鸣的话题,就是在AI 市场中,现在的实际情况其实并不像表面看上去的那样,是一个完全有信心的 AI 创业公司所掌握的新世界。因为微软、谷歌、亚马逊这些基础设施公司凭借着云计算的服务牢牢掌控着这个市场的发展轨迹。
而创投公司其实很大程度上依然是依赖这些巨头基础设施的这个问题在国内其实我们也可以看到同样的映射,比如最近业内很有名的投资人朱啸虎在中关村论坛上说到,我们不要去卷基础模型,去卷应用,它让创业者去放弃和大厂之间资源悬殊的抗争。
当然这是一条务实的建议,但我们从整个系统研究的角度去看,最终的结果就是 Amber 所说的拥有算力,掌握数据中心的大厂们,仍然掌握着这个时代的科技命脉。他们紧握市场的基础成本,可以从源头去控制这项新技术的发展,而前沿 AI 的讨论框架是远远不足以覆盖这其中实际的权力集中现象的。
在这里我还想分享一个演讲,是最近北京大学人工智能研究院的朱松纯教授在中关村论坛年会上的发言。朱松纯教授的观点看下来整体是比较理性的,虽然其中我还是有一些不太认同的部分。
他提到,伴随这一轮技术热潮而来的是我们需要谨慎关注社会和政策对AI 的认知。人工智能从最初的学术问题已经全面的转向了一个社会性的、政策性的问题。我们面对的大多数的决策者、机构、媒体普遍都不是人工智能专业出身,但又被迫在短时间内学习、理解决策,甚至向公众要宣传AI,这给一个新技术的准确传播带来了极大的难度。
朱松纯教授还认为,目前中国的AI叙事是存在。在认知偏差的存在,炒作泡沫、盲目跟风,而未来最难解决的问题恰恰是那些人文学科所关注的社会复杂系统的问题,比如说人口政策、文明的演化、价值体系等等。而这些问题目前无法被建模,无法被实验,所以学界长期靠口头解释和事后分析来做预测,它的预测能力接近为零。
在这一点上我是不同意的,我不认为社会科学、人文学科的预测能力为0,我也不认为人文学科是长期靠口头解释和事后分析在做研究的,当然这一点存在学科和学科之间的信息差的问题我不做展开。朱松纯教授也有一些细节是我想从事实层面去反驳的,比如说他说“AGI 带来人类生存危机这个话题被广泛炒作,形成了全球范围的焦虑,是一种媒体主导的叙事。过去十年媒体和投资圈都在反复的宣扬大数据、大算力、大模型这样三位一体的路线,仿佛这就是AI的唯一未来。”
但我想说,这只是西方部分左翼媒体更偏爱的叙事,而不是一个全球媒体在主导的叙事,正如我们前面讲到的,它的发起方是OpenAI、 Deepmind Anthropic这样现在最知名的人工智能实验室,以及许多在学术界的科学家们,他们在全球范围内进行了广泛的前沿 AI 风险的宣传。
其中最为积极的是几位学者,由去年获得诺贝尔物理学奖的Geoffrey Hinton,还有图灵奖的得主Yoshua Bengio,都是其中非常积极的参与方。今年1月,Yoshua Bengio主导的国际人工智能安全报告international scientific report on the safety of advanced AI 在 1 月 29 号正式发布。
这个报告发起于 2023 年的英国布莱切利举行的人工智能安全峰会,当时是由英国人工智能安全研究所主导的,里面也包括中国在内的 30 多个国家的学者和机构。
而这一次发布的这个报告是 2025 年的最终版本,这些学者在 AI 安全的领域,在前沿 AI 的风险的研究上,可以说是押上了自己的名誉。
他们号召了非常多的研究者加入这个阵营,虽然他们的资金支持的力度是远远不如业界其他进行了市场化融资的那些企业和团体的,不过通过这些学者的号召,依然形成了一股小但是有粘性的力量。
我想要在这里厘清一个事实,这些学者为什么要这样做呢?在去年年底我和安远AI的对谈中得到了一个数据,在全球AI研究的投入比例中,只有 3% 放在了AI安全这个细小的市场上,所以这看似是一个吃力不讨好的事情,能以一个这么小的比例去驱动一圈人进行长时间的投入,绝不仅仅是朱教授所说的是一个媒体炒作的结果。
而恰恰相反,这和欧美学术界,尤其是科学界数十年以来的哲学传统有关。
我们不妨来想象一下,如果海德格尔还活着,会如何批判硅谷?在技术哲学的语境下,这个概念尤为重要。虽然在海德格尔的时代是没有生产式 AI 的,但是我觉得他的理论一定程度上也揭示了现代技术的本质。
他说现代技术是一种特殊的去避方式,它将自然和人类都纳入到了资源的框架中。我用一个具体的例子来解释这个比较晦涩的概念。最近我特别喜欢看杭州的黑客松这个项目,有一些高中生他们就出来攒项目组比赛创业了。
在我这种90后的时代中,还没有这样的氛围,虽然当时的创业潮也存在,但远不像这样年轻化去中心化。 00 后、 10 后的同学们对于技术的信仰,对于成为一个独立开发者的信念,都是过去无法比拟的,他们比第一代互联网创业者更加高调自信,也更加自主,更接近一个符合硅谷文化的状态。
不知道大家有没有这样的体验,比如说我在社交媒体上偶尔会被拉进一些新应用的体验群或者评测群。有很多年轻人非常的热情,会主动的拉路人进去试一试他们的新应用,就像消费品市场一样,在山姆有人会向你推荐新的牛奶,有人向你推荐新的蛋糕,让你尝一口,可以说这种对于创新不停歇的追求,甚至可以说是迷恋,确实很像硅谷迁移而来的思潮。
但其实,这种精神实则是缺少特定的动力机制的。这种动力机制是什么呢?具体来说就是那种资本主义制度下对个人成就和资源控制的充分渴望,以及对于规则的彻底背叛。
而在国内,黑客松更像是一个挥洒青春的赞歌,这场活动也更像是一场以创新意识驱动的社会集体行动。
而在美国,创新崇拜不仅仅是一种技术偏好,也是一种政治经济的选择。硅谷文化背后隐藏的制度性的变化并不完全是中立的,尤其是在平台经济起来以后,他们也形成了服务于某种特定经济利益的机制。
这些文化把技术发展往往描绘为自然进步,从而引导我们的社会资源,我们的关注重心都集中在那些承诺会带来颠覆性变革的项目上,而不是那些能够确保普通人的生活能够长期稳定、公平运转的工作上。
硅谷也赞美熊彼得式的创造性破坏,在这种破坏的文化下,许多科技公司的创始人或者领导者也会不自觉地将自己定位为当代的奥本海默。当一个技术的革新者、研究者认为自己正在创造一项可能改变人类历史的技术时,他会如何看待自己的道德成本?
一些硅谷的创业者会认为自己是奥本海默,这种想法让他们开展技术研究的同时,往往也背负着控制这个技术的道德责任,而这种责任并不是出自于内疚,反而是出于一种道德上的崇高感。
这种定位也让他们往往认可对技术发展方向的决定权是必须要集中在少数精英手中的。我们可以在其中看到一种微妙的权力结构。这些人先制造问题,再提供解决方案,同时保持对整个过程的控制。
这个结构内部也包含一个哲学性的讨论,如果我们从功利主义的视角来看,一个人若真的是奥本海默,当他对社会的贡献、对科学的贡献大于他的伤害时,是否就可以得到道德上的豁免呢?
如果我们从历史情境的角度出发,澳门海默是处在特定的历史背景下,二战纳粹威胁下,他研发了原子弹,那么这些特殊的情境因素又是否能减轻他的道德责任呢?
这些问题延伸到人工智能中,可以是如今的AI领域的研究者是否也正面临着类似的道德困境? AI是否应该始终在一个伦理框架下进行发展?
我们的历史似乎表明,人往往会对成功者的道德瑕疵更加宽容。如今的AI领域的研究者、先进的实验室们,在舆论场上拥有大批的拥顿者。比如说在 Deepseek火了之后,多人去寻找Deepseek的招聘启事,看他们会招哪些人,去尽力联系那些曾经在 Deepseek 或者正在 Deepseek 工作的人。
他们被追捧,被崇拜,被羡慕,在这样的背景下,这些技术偶像是否也在不自觉地寻求这样的道德豁免呢?
在这里,我推荐大家可以阅读一本书,叫做《美国的普罗米修斯:罗伯特奥本海默的胜利与悲剧》,这是关于奥本海默的权威传记,深入的探讨了它在原子弹研发过程中的角色,以及随之而来它面对的那些道德和政治的复杂性。
以史为镜,也许可以找到一些答案。

除了前面我们讲到的追问技术、追问道德,我还想在这里讲一讲关于智能这个词本身的哲学意义,以及它是如何引导技术发展的。
在过去的30年时间中,智能这个概念的重量在科学界不断的增加,不仅仅是人工智能,还有许多其他类型的智能,比如说章鱼,比如说细菌。智幻时刻这个节目其实有一个英文名叫做Fungimind, 直译的话就是真菌的大脑或者是菌类的思想,也是有这个智能的内涵在里面的。
这些生物通过自己的系统彼此之间形成连接,与自然产生共生的关系,而人类只是这个大的智能系统中的一个, AI也是如此。
随着 AI agent、 AI 代理技术的发展,如今有一些比较激进的学术观点会认为 AI 的智能其实已经超过了人类个体的逻辑理解能力。这里不是指AI对于人类语言,对于创作真实的这种驾驭能力,而是指它拥有的信息量已经远超个人。
那么agent是一个非常典型的例子,它可以通过自主代理的系统主动的帮我们解决问题,浏览网页、分析邮件、分析需求,最终达成目标,可以说它完全是一个得力的助手,还是头脑灵活的那一种。
这些概念都打破了我们对智能的传统认知。过去一个人如果有主观的能动性,需要两个条件,一个是活着,一个是有自我意识。但现在意识是否是智能唯一的体现方式呢?如果AI呈现出了一种新型的智能形态,这就将导致智能这个概念在哲学层面变得极其新颖。
许多人都会认为,如果AI存在自主意识,那么对于人类来说会是一个灾难。但我想这种恐惧其实并不完全出自于自己会被替代的想法,而是这个事实一旦成立,就证明了人类和机器生物和非生物之间那条明确的分界线不存在了。
我最近很喜欢一个哲学的技术哲学的杂志叫做Noema,它是一个希腊语,意思就是思想或者意识。在现象学中,Noema和Noesis是相对的一组概念, Noesis是指意识行为本身,而Noema是指意识活动所指向的内容。比如说我们看到一棵树的时候,你的视觉感知过程就属于Noesis,而你对这棵树的理解,这棵树对你产生的意义就属于Noema。
借用这对概念,我们可以问这样一个问题, AI是否有类似Noesis的主观体验?还是它仅仅有类似Noema的理解处理能力呢?
在这本杂志中,天体物理学家Sarah Walker在上面发表过一个很有意思的文章,她谈到了之前我们所说的一个问题:我们所有人都应该摆脱那种生命和非生命之间二元分类的思考方式。在这样的情况下, AI如果达到一定的水平,就会展现出一种类似中介性的视角,它既不是我们,也不是那些非生命的事物,而是一个独立的存在。
那么从一个中介的眼中去看,人类是谁?语言是什么?意识是什么?创造力又是什么呢?
和 Sarah观点一致的还有另外一个哲学研究者,是来自于加州大学圣地亚哥分校的技术哲学思辨教授Benjamin Bratton,他引入了两个分析智能的观点也很有趣,介绍给大家。
Benjamin说,一方面我们可以去借鉴一下人类学家的观点,因为人类学家认为事物是按照一种形式治疗模型构建的,而且这种模型都具有一定的目的意图。
另一方面是我们可以去借鉴搜寻地外智能的方法论,听起来很像三体。简单来说就是我们去关注一些异常规律。这些方法往往不预设智能的形态,而是通过观察一些非随机复杂的规律来推断智能的存在。
Benjamin和Sarah一样,他们都认为智能应该从一个宏观的进化尺度来理解,而不应该仅仅局限在个体层面。他们认为智能不仅仅是存在在单个的物体中的可能,整个行星系统都表现出智能的特征。
而在这种宇宙尺度下,对于AI的研究不仅有助于帮我们理解人类自己,更能够帮助我们理解和外部智能形态的关系。
所以,我们现在的AI到底是一种被发明的东西,还是一种被发现的存在呢?它是不是有可能像日新说一样,完全是一种存在主义技术,而不仅仅是一种工具性的技术呢?
我们知道,在科学史上,哥白尼的日心说打破了人类以自身为中心的观念,让我们重新认识到自己在宇宙中的位置。
而在 AI 发展的领域,接受这一点也意味着我们要重新审视自己和智慧物种的关系,从一个新的视角去理解智能的动态发展过程,重新定位人类的存在意义和自我的形象。
不要小看这些晦涩的理论对于技术界的影响,这些哲学传统在硅谷其实有非常强大的根基和追随者。在去年我记得Anthropic应该有一位哲学出身的政策主管,她同时也登上了全球 100 位最有影响力的AI女性的榜单。这些先进的科技实验室需要招聘哲学家来帮他们思辨政策的方向,同时也引领技术的走向。
这些议题其实也直接推动了人工智能技术细分领域的发展,其中最重要的一个叫做可解释性AI,相较于一些主流的领域,从事可解释性AI研究的人相对是比较少的。
但是我个人认为可解释性AI会在未来的几年展现出越来越高的价值,尤其是像ChatGPT、 Deepseek 这些AI系统广泛的部署到了各行各业,尤其像医疗这样对精确度要求极高的行业中的时候,市场是不可能去接受一个被认为是黑箱的技术的。
我想分享一些可解释性 AI 的研究结果,或者说是过程,它对于我们理解技术发展的脉络是有帮助的。一个比较有名的例子是前些年,伯克利分校、三星北美研究中心、斯坦福和华盛顿大学等多校组成的一个研究团队,他们一起做过的一个停车交通指示牌的实验,这个团队也是首批通过改造现实世界中的物体来进行欺骗机器学习研究的团队。
他们修改了一个 stop sign,一个在美国随处可见的交通指示牌。你的车如果停在路口,看见了它就要停 3 秒再继续。那么研究团队就在这个标志牌上添加了很多的贴纸,或者做了一些海报风格的涂鸦,用来迷惑机器。我们知道一个人的肉眼去看,要辨别一个指示牌是真正的交通指示牌还是街头艺术是不难的。即使这些牌子上贴了东西,但是机器就不一样了。

最后的实验结果也表明,在2019年进行这个实验的时候,无人驾驶的汽车是无法识别这些牌子的,他们很容易把这些指示牌和街头涂鸦艺术混为一谈,或者直接认为上面贴的数字贴纸是一个限速标志。
通过这个实验,研究人员想要提出一个问题,那就是自动驾驶汽车是否能像你和我一样看清这个世界?我想这个话题在这两天应该有了更多的现实意义。
交通指示牌的这个研究虽然进行的很早,那个时候还没有所谓的生成式 AI 的浪潮,但它背后的研究逻辑依然有很强的延续性。我想表达的是,引领人工智能技术的哲学思考其实已经持续了非常长的时间,在这个领域中有非常多不同的理论和派别,而往往一个技术发展的范式也是一个哲学理论派别的胜利。
最后回到这期播客的开头,在一个人人都想搞钱,把 AI 当成工具去搞钱的时代,思辨是否还有必要性呢?
今天我们介绍了政治、经济学、哲学、技术、公共政策等不同视角的观点,来展示我们如今的 AI 叙事到底是如何形成的,又是由谁主导的。
我想当技术成为我们这个时代的核心要素时,要打破这种有资本市场和激进的技术乐观主义者所精心构建的叙事框架是需要更多元化的声音的,包括一些边缘的、小声的、弱势的声音,参与到公共讨论中,一起去塑造更加理性的、更加有主体性的集体意识。
这些问题也正是智幻时刻这个品牌想要探索的。我们不着急听到答案,而只是想重新开启这场对话。我们也不着急定义什么,因为技术永远不仅仅是技术,它也是每个具体的人。
这就是我今天想分享的内容,感谢你的收听,我们下期再见。

-
Noema:意识活动所指向的对象或内容,即经验的意义部分。
-
Noesis:与Noema相对应,Noesis指的是意识活动本身,即赋予经验意义的过程或行为。
-
Hylomorphic Model:认为任何物理实体都是形式(Form)与质料(Matter)的结合。形式赋予事物其特性,质料则是构成事物的材料。
-
SETI(搜寻地外智能):指的是寻找地外智慧生命存在证据的科学努力,主要通过接收和分析来自太空的信号来探测可能的外星文明。
-
Frontier AI Risk:高度先进的基础模型可能具备的危险能力,足以对公共安全构成严重风险。
-
Red Team(红队):在人工智能安全领域,红队指的是通过模拟真实世界攻击来测试AI系统的防御能力,以发现和修复潜在的漏洞。
-
可解释性AI:指一套方法和流程,使人类用户能够理解和信任机器学习算法的结果和输出,旨在提高AI决策过程的透明度。
-
AI Agent:指能够自主执行任务、进行决策,并与环境交互的人工智能系统或程序,通常用于完成特定的目标或任务。
-
技术性消失:指人类劳动在技术包装下被“隐形化”的过程,即技术的发展使得背后的人类劳动变得不可见或被忽视。
-
《悬崖》(The Precipice):由哲学家托比·奥德(Toby Ord)撰写的书籍,探讨了人类在未来可能面临的生存风险,以及如何确保人类文明的长期存续。
-
《幽灵工作》(Ghost Work):由玛丽·L·格雷(Mary L. Gray)和西达斯·苏里(Siddharth Suri)合著,揭示了在数字经济中,被技术平台隐藏起来的大量临时工和零工劳动者的现状,探讨了他们的工作条件和社会影响。
-
去蔽:让被遮蔽的存在重新显现出来,从而通向更本真的理解。
提到的人物
-
Bruno Latour:科学社会学与“行动者网络理论”提出者
-
Geoffrey Hinton、Yoshua Bengio:AI领域“教父”级人物,积极参与AI伦理与风险讨论
-
朱松纯:北京大学AI研究院教授,提醒AI从学术问题转为社会问题的认知挑战
-
朱啸虎:著名投资人
-
Mary Gray:《幽灵工作》作者,微软研究院研究员
-
Amba Kak:科技政策研究所AI Now执行董事
-
Sarah Walker:天体物理学家
-
Benjamin Bratton:加州大学圣地亚哥分校的技术哲学与思辨设计教授
参考资料
-
Rees, T. (2025). Why AI Is A Philosophical Rupture. Noema. Retrieved from www.noemamag.com
-
Fernandes, E., Evtimov, I., Kohno, T., et al. (2019). In London? See our work on Adversarial Machine Learning at the Science Museum. Tech Policy Lab, University of Washington. Retrieved from techpolicylab.uw.edu
-
OpenAI. (2023). Frontier AI Regulation: Managing Emerging Risks to Public Safety. OpenAI. Retrieved from openai.comOpenAI+1OpenAI+1
-
Helfrich, G. (2024). The Harms of Terminology: Why We Should Reject So-called “Frontier AI”. AI and Ethics. Retrieved from link.springer.comSpringerLink+1SpringerLink+1
-
Anthropic. (2025). Progress from our Frontier Red Team. Anthropic. Retrieved from www.anthropic.comHome
请注意,第4条参考文献指出,“前沿AI风险”概念最初由人类未来研究所(FHI)的研究人员提出,尽管未直接提及OpenAI、DeepMind等人工智能实验室的名称,但事实上,该论文在OpenAI的网站上明确表示是由OpenAI独立委托完成。
BGM:
-
片头:Ivano Palma - Il viaggio
-
片尾:Lonely Man - Alex Hamlin