基于RAG的法律咨询助手项目
解决方案 2025年1月-至今 项目背景:法律从业者单次法条检索耗时过长(传统方 法约15分钟/次),且存在检索结果时效性差、云端方案 数据泄露风险等问题; 目标:构建本地化部署的智能问答系统,通过自然语言 交互精准匹配法律条款,提高查找效率。 技术方案: -精准数据工程:精准锚定法律检索低效痛点,设计自定 义脚本将法律条文数据按法律语义单元分割并json格式 化,提高检索召回率; -价值导向模型架构:通过7B模型轻量化部署(基于 VLLM大模型引擎、LlamaindexRAG框架和Chroma数据 库框架)+法律问答数据微调微调,搭建多轮对话聊天引| 擎,在保证检索准确率的前提下,控制硬件部署成本; -企业级部署体系:完全本地化部署,使用FastAPI库封 装API接口; 项目亮点: -通过A聊天对话模型进行检索,单词检索响应耗时低于 10s,极大提升检索效率; -将RAG与模型微调结合,提升模型理解力和检索召回精 度,实测多法律关联检索准确率达到95%以上; -完全本地化部署,保障数据安全性和服务稳定性;进行 API接口封装,支持后续拓展;4
基于模型微调的智能试题查询系统
解决方案 2025年1月-至今 项目背景:学生在自主学习过程中,通过纸质材料检索 答案效率低(平均约1-2分钟/题),且存在试题材料相 关性差、查询不到目标题目等问题; 目标:构建本地化部署的试题查询系统,通过大模型 100%“存储”试题库,支持通过语义分析查询答案,提高 试题检索速度和自学效率。 技术方案: -轻量化模型方案设计:在RAG和微调两种方案种进行比 选,综合考虑硬件部署和模型微调成本,结合试题库数 据特点,选用1.5B参数大模型进行模型微调,控制硬件 规模的同时保障检索精度; -数据工程与集成部署:通过自定义脚本格式化原始数 据;基于Llama-Factory框架进行Lora微调、测试、评估 和导出;基于VLLM引擎部署,开放本地API接口;自定 义脚本匹配训练和部署时的聊天模板;使用Open-Webui 前端进行可视化部署; 项目亮点: -技术层面,利用自定义脚本匹配聊天模板,排除部署时 聊天模板不同对微调效果的负面影响; -商业价值层面,控制成本的同时,精准解决学生检索低 效痛点(响应时间<10s),通过数据工程100%覆盖题 库试题。