加州AI透明度法案SB 53正式生效,会如何影响硅谷的创新生态 ?

9月30日,加州州长加文·纽森(Gavin Newsom)正式签署了《前沿人工智能透明度法案》(SB53),这是美国首部专门针对大型AI公司建立透明度要求的州级法律。
该法案标志着美国AI监管进入新阶段,其影响将远超加州边界。在立法过程中,它频繁引起人工智能公司的分歧,并成为数月来的头条新闻。
在本篇文章中,我们将从三个维度出发,分析这部法案对美国人工智能治理带来的影响。如有引用,请标注出处。

SB53
一. 政策内核:从严厉监管到精准透明
SB 53的诞生是加州在AI监管策略上进行了调整后的结果。
在此之前的2024年9月,当备受瞩目的SB 1047法案送到纽森办公桌时,全球目光聚焦于此。该法案要求训练成本达1亿美元以上的大型AI模型制造商进行特定风险测试,但州长最终否决了这项立法,认为其过于严格且一刀切。
随后,纽森委托由斯坦福大学李飞飞、卡内基国际和平基金会主席马里亚诺-弗洛伦蒂诺·奎利亚尔、加州大学伯克利分校詹妮弗·图尔·查耶斯等顶尖AI研究人员组成的专家组,协助提出替代方案。
这份52页的《加州前沿AI政策报告》于2025年发布,为SB 53奠定了理论基础。报告作者一致认为,重要的是不要扼杀创新,而是“确保监管负担足以使各机构拥有足够的资源来遵守”。
他们还对草案做了一些修改。例如加州的新人工智能政策需要应对快速变化的“地缘政治现实”,并补充了更多关于大型人工智能模型带来的风险的背景信息,并在监管公司分类方面采取了更强硬的立场,指出单纯关注训练所需的计算量并非最佳方法。
报告作者写道,人工智能的训练需求一直在变化,而基于计算的定义忽略了这些模型在实际用例中的应用。它可以被用作“初始过滤器,以低成本筛选出可能需要更严格审查的实体”,但初始风险评估和下游影响评估等因素才是关键。
因为人工智能行业在透明度方面仍处于蛮荒西部,对于最佳实践和“关键领域的系统性不透明性”几乎没有达成一致,例如数据获取方式、安全流程、发布前测试以及潜在的下游影响。
因此,该报告呼吁保护举报人,为进行评估的研究人员提供安全港的第三方评估,并直接与公众分享信息,以实现超越当前领先的人工智能公司选择披露的透明度。

与被否决的前身SB 1047相比,SB 53采用了“软监管”模式,核心在于强制透明度而非技术审查。
SB 53采用了分层的方式,将监管对象分为:
-
5亿美元 (US$500M),大型前沿开发者 (Large Frontier Developer) ,监管依据为年度总营收,达到此门槛的公司必须履行最严格的安全框架制定、透明度报告以及关键安全事件报告义务。
-
1亿美元 (US$100M) ,为前沿开发者/基础模型 (Developer/Foundation Model) ,监管依据为模型训练的计算成本 。训练模型所消耗的计算能力(如云算力)成本达到1亿美元的公司,被视为前沿开发者,是监管对象的基础。这一成本门槛通常与 1026 FLOPs 的计算量门槛并行使用。
-
10亿美元(US$1B),为灾难性风险 (Catastrophic Risk) 。监管依据为潜在损失 ,此数字并非监管门槛,而是定义“关键风险”的度量标准。即模型可能造成超过100人死亡/重伤或超过10亿美元财产损失的风险。
这个分层精准地锁定了硅谷顶尖的AI实验室。这些“大型开发商”必须公开发布详细的安全协议框架,涵盖风险评估程序、危险能力阈值、缓解措施评估、第三方审计程度、网络安全实践等八个核心维度。
法案的核心要求包括强制公布安全与安全协议(允许保护知识产权的编辑版本)、在事件发生后15天内向州总检察长和应急服务办公室(OES)报告关键安全事件(包括网络攻击),以及对披露健康和安全风险的吹哨人的强化保护。
法案关键时间节点
-
2024年9月29日:州长纽森否决了先前的SB 1047法案,理由是该法案过于严格,可能抑制AI创新。随后,他召集了由斯坦福大学、人类中心人工智能研究所(HAI)共同主任李飞飞博士等人组成的工作组,研究制定更为合理的AI监管框架。
-
2025年6月17日:上述工作组发布了《加利福尼亚前沿人工智能政策报告》,提出了加强AI透明度、建立安全框架、保护举报人等建议,为SB 53法案的起草提供了依据。
-
2025年7月8日:SB 53法案首次在加州议会提出,并于7月17日和7月23日分别在参议院和众议院进行修改。
-
2025年9月17日:SB 53法案在加州议会通过。
-
2025年9月29日:法案签署生效,要求大型AI开发者(年收入超过5亿美元)立即开始公开其安全框架和风险评估,并在发布新模型或重大更新前30天发布安全报告。
-
2026年1月1日:开发者需在其官方网站上公开安全和风险管理框架,说明如何评估和应对“灾难性风险”。
-
2027年1月1日:加州应急服务办公室(Cal OES)开始发布年度报告,汇总收到的重大安全事件。
-
2030年1月1日:大型AI开发者需每年聘请独立第三方审计机构进行安全合规性评估,并将审计摘要报告提交给加州总检察长。
对于硅谷而言,SB 53的深远影响在于它将AI安全责任从自愿承诺提升为法定强制要求,并引入了加州总检察长在未来根据技术发展调整监管门槛的动态机制。
因此,受管辖的开发者必须将SB 53合规视为一项需要不断适应的企业级风险管理框架,而非一次性任务。
法案建立了完整的事件报告机制:开发商必须在发生重大安全事件后15天内向加州紧急服务办公室报告,如涉及紧迫威胁则需在24小时内报告。
同时,法案为AI公司员工提供了强有力的举报人保护,包括匿名举报渠道和法律保障。
特别值得注意的是,法案还包含CalCompute计划——建立公共云计算集群,为初创企业、学术研究人员和小型开发者提供计算资源,以平衡大型企业在监管负担下可能获得的竞争优势。
某种程度上,CalCompute日后很可能演变为一个事实上的“监管沙盒”,允许政府和研究人员在低成本环境中测试模型的风险。通过公立渠道获得的经验数据,将为总检察长和CDT未来调整SB 53的门槛和风险定义提供经验基础。
二. 支持与反对的考量
到如今,科技界对SB 53的态度依然呈现明显分化,背后反映的是不同企业的战略定位和商业考量。
Anthropic成为首家公开支持该法案的主要AI公司,其政策主管杰克·克拉克表示法案“建立了有意义的透明度要求,而不强加规定性的技术要求”。
这一立场符合Anthropic一贯强调AI安全的品牌定位,透明度要求反而可能强化其在安全领域的竞争优势。
相比之下,Meta和OpenAI的反对态度更多源于对监管成本和竞争影响的担忧。Meta在8月专门成立州级超级政治行动委员会,其公共政策副总裁布莱恩·赖斯警告“萨克拉门托的监管环境可能抑制创新”。
OpenAI首席全球事务官克里斯·雷恩则主张通过联邦或全球协议来规避州级要求,体现了大型企业对统一监管标准的偏好。
反对的声音主要有以下几个维度:
A. 开发者规模与模型风险的争议
SB 53对FLOPs的过度依赖是其面临的主要批评之一。行业人士认为,将计算量作为衡量监管门槛是一种替代性指标,未能抓住关键风险:即便是计算量较小的专业模型,如果具有特定恶意能力(例如,协助制造化学武器或设计毒素),也可能构成灾难性风险。监管若过于集中于训练规模,可能会忽略来自小型、专业化模型的高风险隐患。
B. 执法能力差距与透明度瓶颈
SB 53的实施依赖于总检察长(AG)制定详细的法规来明确“关键安全事件”的精确法律定义。如果定义模糊,可能导致企业出于担心惩罚而过度报告,或出于保护声誉和知识产权而报告不足,从而削弱透明度的实际效果。
更关键的挑战在于执法能力。州政府缺乏足够数量和深度的技术专家,难以独立、快速地评估由世界上最先进AI实验室提交的、涉及数百亿参数和 1026 FLOPs模型的安全报告和协议。法律虽然要求审计员承担合规责任,但审计能力的建设是加州需要长期投入解决的挑战。
C. 可能会意外推动模型闭源化趋势
SB 53试图用法律工具(强制报告、吹哨人保护)解决技术工具(AI风险评估、能力限制)的问题。行业批评者对无法控制下游风险感到担忧。如果一个
1026 FLOPs的模型被开源,一旦被恶意修改并引发灾难,原始训练者可能会面临无限的法律责任。
为了规避这种风险,大型开发者可能会更倾向于采取封闭(closed-source)或限制访问的模型部署策略。虽然这在一定程度上可以控制模型的使用,但它限制了公众和研究人员对模型的安全审计能力,这与SB 53促进透明度的初衷可能会产生矛盾。如果无法实现可验证的技术审计,SB 53的透明度可能只是一种形式上的合规,而非实质性的风险缓解。
而这种分化实际上反映了AI产业内部的竞争博弈:对于在安全研究方面投入较多的企业,透明度要求可能转化为竞争优势;而对于更注重快速部署和市场扩张的企业,额外的合规负担则可能影响其发展节奏。
三.对硅谷的影响:重塑创新生态
SB 53对硅谷的影响远不止表面的合规成本增加,而是重塑了AI创新生态的运作逻辑。
对前沿开发者而言,他们势必出现了设立首席AI监管官的必要,还要面临主动引入独立第三方审计师的压力,并将其与内部吹哨人保护系统结合,确保从工程层到高管层都有畅通、可信的风险上报和验证渠道。
另外,制定灾难响应预案也是新增任务。开发者需要将CIRS的15天报告时限视为强制性操作约束,还应针对网络攻击和关键安全事件,制定与OES要求相符的快速响应和数据提交协议,并进行定期演练,以处理国家级危机的高度。
总体来说,这部法案强化了加州在全球AI治理中的规则制定者地位。全球前50大AI公司中有32家位于加州,这种“加州效应”意味着当地监管标准很可能成为事实上的全球标准。
正如当年加州的汽车排放标准推动了全美乃至全球汽车产业的变革,SB 53也可能引发连锁反应。
其次,法案将加速AI产业的分化重组。大型企业拥有更强的合规能力和资源,能够将监管要求转化为护城河;而初创企业虽然面临相对更高的合规负担,但CalCompute计划提供的公共计算资源在一定程度上缓解了这一压力。
这种设计体现了政策制定者试图在保护创新活力与确保安全的双重目标间寻求平衡。
更深层次的影响在于,当企业必须公开其安全协议和风险评估时,这不仅增加了外部监督的可能性,也会内在地激励企业加大对AI安全和伦理的投入。
可以看到,与欧盟《人工智能法案》的全面监管不同,SB 53采用了更加精准和务实的路径:聚焦于最具风险的前沿模型,通过透明度要求而非技术禁令来实现监管目标。
就在SB 53签署当天,联邦层面也传来呼应:参议员霍利和布卢门塔尔提出联邦AI监管法案,要求AI开发商评估和报告不良事件。这表明加州的探索正在为全国性监管框架提供参考。
从国际竞争角度看,率先建立完善AI治理体系的地区将在未来全球AI标准制定中占据主导地位。加州通过SB 53不仅巩固了其全球AI创新中心的地位,更可能在国际AI治理规则的制定中获得更大话语权。


智幻时刻是一个年轻的科技人文研究品牌。我们重点关心技术扩散中对社会以及人群的影响,并提供全球科技政策和立法的解读、以及技术哲学脉络的梳理。欢迎各位科技人文主义者们和我们一起围绕技术的“社会性”展开研究和对话。

官网:thefungimind.com
小红书:Fungimind_AI治理蘑菇
小宇宙、Apple Podcasts、Spotify:智幻时刻Fungimind
Email: Fungimind@163.com
欢迎将我们设为星标,以及点赞、转发、在看