面对AI焦虑,中国法律研究者们列出了一份新问题清单
当智能体开始行动、决策、甚至影响真实的人类生活,法律体系正在进入一个全新的阶段。
由中国政法大学牵头,汇集20多个高校、科技企业共同的《探寻人工智能法治研究的真问题(第二季)》于2026年3月19日发布。
该工作由AI善治学术工作组牵头,是该工作组第二年开展这一工作,执笔团队由来自中国政法大学、北京航空航天大学、西南政法大学、华东政法大学、西北政法大学、中南财经政法大学等高校的学者,以及中国信通院、阿里研究院、百度等机构的产业专家共同组成,召集人为中国政法大学人工智能法研究院院长张凌寒。
十个议题横跨智能体治理、拟人化互动风险、生成式AI幻觉、个人信息保护、知识产权、极端风险防控、产业政策、出海合规、规范协同、新型治理工具,涵盖从技术行为规范到治理框架设计的完整链条。
中国政法大学人工智能法研究院院长、AI善治学术工作组召集人张凌寒在成果回顾中概括了这份报告的定位,和2025年的第一季报告比起来,这次的参与主体更广泛,汇聚了科研机构专家与头部 AI 企业代表以融合学界理论与产业实践。今年的议题也更加聚焦——更小的切口,更深的挖掘,更贴近产业现实中正在发生的具体争议。
发布会上,负责第一个议题的对外经济贸易大学法学院教授许可,把智能体问题和眼下最热的“养龙虾”(OpenClaw,能帮用户发消息、做决策、谈合作、做风控的智能体)联系在一起。
他谈到,如果说大语言模型代表着它开始像人一样说话,那么Agent代表着它已经真正进入到了我们的真实生活,可以真正地帮人去做事。
浙江大学数字法治研究院研究员李汶龙谈到,从法律层面看,智能体同时瓦解了法律赖以运转的两个前提——隐私法的知情同意框架,以及竞争法的“围墙花园”的假设,现在“整个花园被打通了,这远远超出我们的预期。”
其它议题也聚焦拟人化AI等现实问题。中国信通院政策与经济研究所主任工程师、《人工智能法(学者建议稿)》起草专家组专家程莹列举了已经发生的一些现实案例,例如用户听从智能助手建议给陌生账户转账被骗,AI诱导青少年自杀等,但现行的监管工具——算法备案、显式标识、分级分类——是主要为生产工具类AI设计的,对一个每天与用户建立情感连接的AI伴侣是否还有效,是悬而未决的。
生成式AI幻觉致损的责任分配,也是今年法律争议最集中的议题之一。2025年底,杭州互联网法院审理了“生成式人工智能幻觉第一案”,被告是DeepSeek。原告因 DeepSeek 编造学校信息提起索赔诉讼,法院最终以 AI 不具备民事主体资格、平台已尽内容误差提示义务、原告无实际损害及因果关系证据为由,驳回其全部诉讼请求,该案也为 AI 幻觉相关侵权纠纷的司法认定提供了重要参考。
西北政法大学人工智能法治研究中心教授杨建军指出,问题的核心已经发生了根本迁移——过去关注的是生成内容是否违法,现在更需要直面的是用户基于合理信任采信错误内容后引发的人身损害和财产损失。
其中也存在制度难题,因为人们需要明确合理性的适用边界,平衡用户权益保护与产业发展——既不让用户盲目承担AI的全部风险,也不让合理的风险提示完全失去效力。
此外,极端风险议题是今年报告中措辞最为直接的部分。报告明确援引了Claude勒索、o1自主逃逸等已被观察到的案例,指出风险正由局部性、可控风险向系统性、极端性风险扩展,并主张从以事后责任追究为中心,转向以事前预防为核心的应对路径。
产业政策、出海合规、规范协同、新型治理工具,构成了议题清单的后半段,指向的是整个治理框架如何搭建。这份报告也提出了一个基础性的追问:技术标准、伦理准则与法律规则三者之间的关系如果搞不清楚,一是可能带来过高的合规成本,企业不知道怎么合规;同时也有可能导致一些企业的形式上合规,但实际上还是产生很多问题。
在发布的点评环节,也有研究者指出,目前十大议题的提出主要偏向学者和产业界视角,公众与消费者的角度还需要更多补充,无论是学术界,还是产业界,也需要更多更具理论引领力的研究。
为了更有趣地呈现这份严肃报告的内容,我们做了一张可视化图表。建议在PC端查看。