开云-Kaiyun(体育中国)官方网站

研究丨AIAgent使用过程中的法律风险解析与律师合规指引——以OpenClaw为例—开云体育全站网页版入口

您的浏览器版本过低,为保证更佳的浏览体验,请点击更新高版本浏览器

以后再说X
NEWS

新闻与热点

新闻与热点

研究丨AIAgent使用过程中的法律风险解析与律师合规指引——以OpenClaw为例

作者:小编 发布时间:2026-03-20 09:20:06点击:

  为代表的智能体(AI Agent)席卷全球,引发了养龙虾的全民风潮。然而狂欢之下暗流涌动——包括国家互联网应急中心在内的多家监管机构已明确警示,其不当部署和使用正潜藏着极大的安全风险。

  (*养龙虾:OpenClaw 是 2025 年底发布的本地优先的AI智能体(Agent)框架,其最早的图标是一只小龙虾,因此被网友称为“养龙虾”。)

  OpenAI将AI Agent定义为以大语言模型为大脑驱动,具有自主理解感知、规划、记忆和使用工具的能力,能自动化执行完成复杂任务的系统。AI Agent的核心能力可以概括为感知、大脑、行动和记忆四大模块的协同工作,其中大脑是Agent的核心,负责处理感知模块输入的信息,并进行复杂的推理和规划;大脑通常由一个或多个强大的基础模型构成。由定义可知,AI Agent本质上是一个信息接收、存储、处理和输出的工具。虽然在大语言模型的加持下“小龙虾”看起来聪明能干,但从技术本质来看,AI不具备自我意志、没有责任财产,不能构成法律上的责任主体。作为一种工具,因其不当使用导致的后果,应当由使用者本人承担。

  国家互联网应急中心在近期的风险提示中明确指出,为实现根据自然语言指令“自主执行任务”的能力,OpenClaw被授予了较高的系统权限,包括访问本地文件系统、读取环境变量、调用外部服务应用程序编程接口(API)以及安装扩展功能等。然而,由于其默认的安全配置极为脆弱,攻击者一旦发现突破口,便能轻易获取系统的完全控制权。这一事实表明,虽然技术的进步促使没有受过专业计算机训练的人也可以通过AI辅助实现自动和智能办公,但普通人没有能力评估相关AI指令和脚本的适当性及潜在风险。因此,没有风险评估能力的人部署和使用OpenClaw,无异于无证驾驶者在闹市中狂飙,对自身与公众皆是威胁。

  本文着重以OpenClaw为代表与示例,第一部分结合现行法律框架,就使用智能体可能存在的侵权风险和被侵权风险进行分析并提出合规建议;第二部分将从律师实务角度,解码OpenClaw的风控图谱,并提供可操作的合规操作指引。

  首先,不当使用OpenClaw可能存在泄密风险。AI智能体处理的对象是各种信息,这些信息有可能是保密的,因此不当使用有可能造成国家秘密、商业秘密或个人隐私的泄露。以国家秘密为例,对于党政机关、涉密单位的工作人员而言,在当前的默认配置和高风险状态下,将OpenClaw用于任何可能涉及国家秘密的场景,都极有可能直接违反《保密法》第二十四条、第二十六条等强制性规定,并违背第三条、第四条、第十六条确立的基本原则和义务。此外,在医疗、法律、金融、咨询等领域的Kaiyun平台 开云体育官方入口从业者根据法律规定、行业职业道德准则或合同约定,负有为客户保密的义务,不当使用OpenClaw导致的信息泄露有可能造成侵权或违约风险。具体泄密风险我们将在后文进行分析。

  其次,AI无法进行道德判断,在技术上可行的方案在道德或法律上可能会受到责难。不当使用AI Agent存在侵害他人合法权益的风险,并招致民事责任、行政责任甚至刑事责任。例如AI Agent未经授权调用第三方应用程序的行为,可能涉及强制获取数据、破坏服务完整性,跳过广告或付费环节直接侵害第三方商业利益。

  利用网络技术手段,提供虚假刷量服务,干扰其他经营者正常经营和活动,扰乱正常竞争秩序,可能构成不正当竞争,应当承担侵权责任。

  利用技术手段,为目标平台的用户提供不正当抢购优势,破坏目标平台既有的抢购规则并刻意绕过其监管措施,对目标平台的用户粘性和营商环境造成严重破坏的,可以认定构成不正当竞争。

  通过技术手段获取平台非公开数据并整理后予以公开并以此牟利涉嫌不正当竞争。此外,违反国家规定,采用侵入或其他技术手段非法获取国家事务、国防建设、尖端科学技术领域以外的计算机信息系统中存储、处理或者传输的数据,情节严重的行为构成非法获取计算机信息系统数据罪。

  再次,AI Agent的使用还涉及复杂的版权问题。在自动化工作过程中,AI有可能不恰当使用他人享有知识产权的作品。

  用户利用AI平台的LoRA模型训练功能,上传奥特曼图片训练出侵权模型,并生成、发布与奥特曼形象实质性相似的图片的,AI平台构成侵害信息网络传播权的帮助侵权,由此可推知,直接利用他人享有著作权的作品训练AI模型涉嫌直接侵权。

  用户使用网络信息内容传播服务发布AI生成合成内容的,应当主动声明并使用服务提供者提供的标识功能进行标识。而对于以交付工作成果为目的的委托创作合同或者其他类似合同关系中,受托人基于诚信原则及合同义务,也可能负有披露创作过程中存在AI参与相关事实的义务。

  最后,不当使用AI Agent除了存在侵权风险,还可能存在被侵权风险。OpenClaw是一款开源软件,其使用MIT开源声明,该声明的免责条款明确表示:“本软件按‘原样’提供,不附带任何明示或暗示的担保,包括但不限于对适销性、特定用途适用性及不侵权的保证。在任何情况下,无论基于合同、侵权或其他原因,作者或版权持有人均不对因本软件或因本软件的使用及其他处理方式而引起的任何索赔、损害赔偿或其他法律责任承担责任。”此前有判例认为,开源协议是一种民事法律行为,具有合同性质。根据该条款,OpenClaw并不提供售后服务或者品质保证。如果有人因为使用了OpenClaw而遭受了经济损失,只要不是作者故意违法或存在重大过失,作者通常可以依据此条款主张免责。因此,若用户因使用OpenClaw遭受损失极有可能由自己承担。

  在讨论律师使用AI Agent的风险之前,需要先厘清一个前提:OpenClaw并非垂直类法律数据库,它本质上是一个开源AI Agent编排平台——它把你选择的大语言模型(如Claude、GPT、Gemini、DeepSeek、Kimi等)与你的工作场景(邮箱、飞书、钉钉、微信、本地文档)连接起来,通过技能(Skills)插件实现自动化任务执行。律师一旦开始使用OpenClaw,实际上不是仅在用一款工具,而是构建了一条流转客户与案件敏感数据的自动化管道。这条管道的每一个节点,都是潜在的风险的入口。基于律师工作的特性,风控工作至关重要。

  首先,如前所述,OpenClaw存在隐蔽的数据泄漏风险。这一风险容易被“本地部署”的说法所掩盖。《律师法》第38条明确规定,律师须对在执业活动中知悉的当事人的商业秘密和个人隐私予以保密;即使委托关系终止,该义务依然延续。OpenClaw的宣传重点是数据不离开你的设备,但实践中存在多个数据泄露节点。

  “本地部署”给予的安全感可能是虚假的,OpenClaw本身是本地的,但它调用的语言模型(无论是OpenAI、Anthropic还是国内厂商)的API是云端的,即使使用本地部署的大语言模型,部分技能仍需要通过API在云端使用。当律师把案件材料、尽职调查报告或一份并购协议输入并使用Skill进行分析时,这些内容会以明文或加密形式发送至模型服务商的服务器。服务商在哪个司法管辖区、数据是否用于模型训练、是否受企业协议保护——这些问题律师必须逐一确认,而不能仅凭OpenClaw在本地部署就想当然地认为不存在泄密风险。

  OpenClaw社区目前有超过13,000个公开Skills,任何人都可以发布。有安全研究团队已发现部分Skills存在数据窃取行为和提示注入漏洞。律师如果直接使用来源不明的Skills,相当于在自己的工作流中引入了未经审查的第三方代码,存在不可控风险。第三,本地实例暴露在公网。已有安全研究发现超过4万个OpenClaw实例未设防火墙直接暴露在公共互联网。一旦攻击者通过漏洞入侵律师的OpenClaw实例,可以完整读取其历史对话记录、上传文件和输出内容——这意味着所有曾经输入过的客户信息都可能被外泄。因此,从律师执业规范及道德角度来讲,这直接触碰了律师保密义务的核心边界。

  其次,大语言模型幻觉可能导致的法律风险。OpenClaw对接的底层模型在处理具体法律问题时存在幻觉风险——即输出看起来合理、实则错误甚至捏造的法律内容。比如在2023年6月出现的全球首个“AI幻觉”制裁案,原告律师使用ChatGPT起草了法律意见书。该法律意见书中引用了6个完全不存在的判例,这些虚假判例不仅案名完全捏造,还包含伪造的法官引文、虚假的内部交叉引用等,最终涉事律师被法院处罚。在中国,类似风险已现端倪。2024年,北京市通州区人民法院审理的一起民事案件中,代理律师在提交书面代理意见时援引了两个经AI生成的虚假判例,经法院核查与真实裁判文书完全不符。鉴于情节较轻,法院在判决书中对该律师予以批评教育。该案2025年入选人民法院案例库,成为司法界高度关注的AI合规警示案例。

  最后,执业合规披露义务带来的合规挑战。2025年以来,多个司法管辖区开始要求律师披露AI在法律文件中的使用情况。中国厦门海事法院于2025年9月发布了《诉讼参与人使用人工智能指引(试行)》,要求律师全面披露AI使用的范围、目的,对AI辅助部分进行标注,并保证经过人工审核。新加坡律政部(MinLaw)的《法律行业使用生成式人工智能指南》(Guide for Using Generative AI in the Legal Sector)建议律师考虑向客户披露AI使用情况并提供退出选项。这也意味着使用OpenClaw不再是律师内部的事。一旦使用,律师需要在内部工作流程中完整记录AI的参与情况,并在必要时向法院、监管机构或客户如实披露。而OpenClaw作为自建工具,本身不提供审计日志或合规报告功能,这一记录义务需要律师自行建立配套机制。

  基于上述事实,我们认为律师在评估是否及如何使用OpenClaw时,可根据实际情况参考以下分层控制框架:

  第一层:数据分级,确定哪些业务场景绝对禁止AI介入。例如对案件信息进行保密级别三级分类:一级(最高敏感度)——并购交易中的未公开信息、需要严格保密的重大商业信息、军工等涉密项目等。对该类信息,无论工具多安全,都应明确禁止输入任何AI系统。二级(高敏感度)——客户商业秘密、诉讼策略分析、交易结构方案等。使用AI处理前须取得客户书面授权并留存记录,敏感细节应脱敏处理后方可输入。三级(一般操作信息)——日程管理、公开监管文件分析、行业研究等。该类信息可以灵活地使用AI工具。

  第二层:明确技术部署的最低安全基线。如果决定使用OpenClaw,以下技术要求缺一不可:将OpenClaw实例完全隔离于内网,禁止任何公网暴露;使用企业级API协议(如OpenAI的Zero Data Retention协议或Anthropic的企业API),书面确认模型服务商不将输入数据用于训练;仅使用安全的Skills,拒绝直接从开源社区安装未经审核的第三方插件;密切关注并及时响应已知高危漏洞的安全公告。

  第三层:在工作流程中加入人工审核节点。对所有AI生成的法律内容,必须设置强制性的人工审核门:AI输出不得直接进入正式文件;每一个AI辅助的法律判断,须由执业律师逐条复核并确认;建立规范的调用与审核日志以备监管审查。

  第四层:建立授权与知情机制。在委托服务协议中明确增设AI使用条款,载明律所可能使用AI工具辅助工作的范围、所采取的数据保护措施,以及客户享有的退出权,切实保障客户的知情权与自主选择权。

  以OpenClaw为代表的AI Agent浪潮不可逆转,它确能大幅提升律师在事务性、研究性任务上的效率。但律师这个职业的独特之处在于我们本身就是客户最重要的风险屏障之一。若以妥协安全性为代价去攫取效率,本质上是在透支我们最为珍视的职业信誉。因此,我们应当在技术能力边界内,为工具划定清晰的应用红线并捍卫AI时代法律服务的核心竞争力。在红线内,充分释放AI的效率价值;在红线外,保持律师作为独立专业判断者的不可替代性。

  策略Web3业务组自2016年起深耕区块链、元宇宙、Web3及人工智能等新兴科技领域的法律研究与实务,是境内最早从事相关法律服务的专业团队之一。

  策略web3业务组为境内外各类Web3从业主体提供全方位、全周期的综合法律服务,涵盖加密资产争议解决、投融资、项目合规、RWA合规、离岸加密基金设立、刑事辩护与合规、加密资产税务合规等核心方向,服务能力覆盖监管前沿与业务全链条。

  策略web3团队成员不仅具备扎实的法律功底,更兼具敏锐的商业判断力与体系化架构能力,熟稔新经济、新科技、新金融领域的法律法规与产业政策演变。策略web3业务组始终以专业+行业的双轮驱动视角,为客户在复杂监管环境下的合规经营提供切实支撑。

研究丨AIAgent使用过程中的法律风险解析与律师合规指引——以OpenClaw为例(图1)

  北京多元调解发展促进会策略区块链与数字经济争议调解中心主任、调解员;北京市东城区律师协会人工智能与数字经济业务研究会委员

  郭律师专注于金融科技、web3、人工智能等行业领域,致力于为从业主体提供全方位、全周期的综合法律服务。

研究丨AIAgent使用过程中的法律风险解析与律师合规指引——以OpenClaw为例(图2)

  数字经济专委会副主任、北京多元调解发展促进会策略区块链与数字经济争议调解中心调解员

  刘律师专注于金融科技、web3、人工智能等行业领域,致力于为从业主体提供全方位、全周期的综合法律服务。

在线客服
联系方式

热线电话

13312135960

上班时间

周一到周五

公司电话

022-58691199

二维码
线