目录

法规有效性核查:从3天到30分钟

/images/law_cover.png

做过企业规章制度合规性评价的朋友应该都经历过这个场景:

项目组拿到一份法规清单,几百条,需要逐条去国家法律法规数据库和国家规章库查一遍——这条还有效吗?有没有被修订?上次检查到现在,有没有新出的法规?

上一个项目,同事花了三五天,一条条打开网页、搜索、核对、记录。

这次我想试试,能不能让 AI 来干这件事。

▌先说结果

663 条法规,AI 全部查完,自动输出了一个 Excel:

  • 国家法律法规数据库找到 356 条
  • 国家规章库找到 164 条
  • 140 条两个库都没收录(可能已废止,或来源于其他渠道)

每条法规标注了:是否有效、发文机构、公布日期、原文链接

点开链接就能看原文,不用再一个个去搜。 /images/Pasted-image-20260423224936.png

同时,我让它查了 2026 年新发布的法律法规,也直接输出了一份 Excel,200 多条,带公告日期、施行日期和原文链接。

/images/Pasted-image-20260423224848.png

以前这两步加起来,少说三五天。现在半小时搞定。

▌怎么做到的

核心就一句话:让 AI 自己去分析网站,自己写爬虫。

用的是 Playwright-cli 这个工具。AI 先通过它打开浏览器,访问国家法律法规数据库和国家规章库,自主分析页面结构、监听网络请求,搞清楚数据接口长什么样。然后自己编写爬虫代码,直接调接口批量获取数据——比一页页翻浏览器快得多。

/images/Pasted-image-20260423225020.png

/images/Pasted-image-20260423225004.png

整个过程不需要你懂代码。你只需要告诉 AI:

“这个文件里有一份法规清单,帮我查一下这些法规是否有效,输出一个 Excel。”

它就开始干活了。

▌比写爬虫好在哪

/images/law_crawler.png

有人会说,这不就是爬虫吗?

确实是爬虫,但关键区别在于:谁来写这个爬虫。

以前是人写。你得自己抓包、分析接口、编写代码。法律法规网站隔三差五调整页面结构,一改版你的爬虫就废了,又得重新来。

现在是 AI 写。它通过 Playwright-cli 打开浏览器,自己去分析页面、监听请求、搞清楚接口,然后自己把爬虫代码写出来。网站改版了?让它重新分析一遍就行,它会自己适应新的结构。

实际测试中,国家规章库的访问凭证过期了,AI 自己发现了这个问题,自动重新获取了凭证,然后继续查询。全程不需要人介入。

以前你需要懂抓包、懂代码才能写爬虫。现在你只需要告诉 AI 去哪个网站查什么,它自己搞定剩下的。

▌越用越聪明

/images/law_skill.png

这里有个关键概念:Skill(技能)

我把"查法规"这个能力封装成了一个 Skill,相当于给 AI 写了一份操作手册。它知道:

  • 去哪两个网站查(国家法律法规数据库 + 国家规章库)
  • 怎么搜索(按标题、按内容、按日期)
  • 结果怎么整理(Excel 格式,带状态、日期、链接)
  • 凭证过期了怎么自动刷新

而且每次用完,如果发现有新的情况(比如某个网站的接口变了),可以让 AI 把解决方案更新回 Skill 里。

下次再用,它就不会再踩同样的坑。

这就是"越用越好用"——不是 AI 变聪明了,是你帮它积累了经验。

▌这只是第一步

回到合规性评价这个项目,查法规只是第一步。完整的流程是两条主线:

主线一:法律法规

  • 验证现有法规清单的有效性 ✅(AI 已完成)
  • 查询新增法规 ✅(AI 已完成)

主线二:上位制度

  • 梳理集团/总部的制度要求
  • 提取适用条款

两条线汇总后,再跟目标公司的制度逐条对照,找出不符合项。

查法规这一步已经跑通了,后面的条款对比其实更适合 AI 来做——大量文本的逐条比对,正是它擅长的。

▌写在最后

这个方案最让我满意的一点是:整个过程不需要你懂代码。

你不需要会写 Python,不需要会抓包,不需要懂 API。你只需要能跟 AI 对话,告诉它你要什么,它自己去想办法。

663 条法规,从查询到输出 Excel,半小时。