目录

我要训练一个审计大模型

目录

大家平常使用的AI大模型都是通用型的大语言模型,这类模型在通用场景下确实有非常好的效果。

平时我在写方案、写代码、做行业研究时都离不开它。

但像审计这类垂直专业领域,它就显得没有那么智能了。

原因就在于,它缺少行业专业领域数据的训练。

在此之前,我尝试在本地搭建行业知识库,运行大模型RAG(检索增强生成)技术,来增强其在专业领域的效果。

它会将你上传的文本数据,向量化存储在数据库中,等你向其提问时,会搜索出最相关的文本,再用大模型根据这些文本向你进行回答。

这种方案在查询法规等知识的时候,效果是非常好的。

但它还是一种外挂的方式,并没有增加大模型在专业领域智能。

所以,我想到了对大模型进行微调,训练一个Lora.

对于玩 stable diffusion 图像生成的来说,Lora 并不陌生,它不需要你重新训练一个大模型,只是在其基础上微调训练一个小的模型,让期具备风格化。

但之前网络上的微调方法都是基于 Nvidia 显卡的,我只有一个 3080 显存仅有8G的显卡,显存根本不够微调一个稍微大一点的模型。

直到周末我们看到了这样一个视频:

https://www.bilibili.com/video/BV1MH4y1g77V

使用 Mac 的mlx 深度学习框架 mlx ,直接可以在 mac 上微调训练。

这不巧了吗?我手里就有一台顶配M3 max 128G 的笔记本,相当于显存128G。( 要达到这么大的显存也得几十万了 )

这不一般的开源大模型都可以训练了么。

视频中,作者是将B站的优秀评论作为训练数据,训练出一个 AI B友。

我照着视频中的方法,复现了出来。使用的是阿里开源的通义千问320亿参数的模型。

训练大概花了半天的时间,喂的数据量大概是一两万的评论数据。

调教出了一个脾气暴躁,怼人的B友。

这个训练时间,对于我来说完全能接受,就是一个晚上睡觉的工夫。

它需要的训练集就是一问一答的形式,大模型根据训练集进行微调。

所以,后面我会去尝试训练一个审计垂直领域的模型。

我想了想,就从关键审计事项开始吧。

因为关键审计事项数据一般也就是风险和应对,相当于一问一答的形式。

我预想中,训练出来后,只要我输入审计科目风险,就能智能生成出关键审计事项。

区别于通用大模型,它是根据历年上市公司年报审计报告中的关键审计事项,效果我想是会好很多。

如果这个效果好的话,可以想见大家平时写的那些综合资料,那些事务所里积累的专业知识,不再是技术大佬、经理、项目经理才可以回答了,

垂直领域的审计微调大模型就可以帮助我们底层员工解决。

甚至于所里招投标平时不断重复写的技术方案,不也可以将数据训练后形成一个招投标AI大模型么?

AI 其实离我们专业工作者并不远。

参考资料

B站大战弱智吧!两万评论训练最强AI哔友!:https://www.bilibili.com/video/BV1MH4y1g77V

哔哩哔哩聊天机器人 : https://github.com/linyiLYi/bilibot