Update README and demo images

This commit is contained in:
songpx
2023-05-14 19:57:20 +08:00
parent f3f393700a
commit dc38e20726
4 changed files with 15 additions and 6 deletions

View File

@ -7,7 +7,7 @@
</p>
<p align="center">
<a href=""><img src="https://img.shields.io/badge/version-alpha1.0-blue"></a>
<a href=""><img src="https://img.shields.io/badge/version-beta1.0-blue"></a>
<a href=""><img src="https://img.shields.io/github/last-commit/pengxiao-song/lawgpt"></a>
<a href="https://www.lamda.nju.edu.cn/"><img src="https://img.shields.io/badge/support-NJU--LAMDA-9cf.svg"></a>
</p>
@ -24,13 +24,16 @@ LaWGPT 是一系列基于中文法律知识的开源大语言模型。
## 更新
- 🌟 2023/05/13公开发布 <a href=""><img src="https://img.shields.io/badge/Model-Legal--Base--7B-blue"></a> <a href=""><img src="https://img.shields.io/badge/Model-LaWGPT--7B--beta1.0-yellow"></a>
- 🌟 2023/05/13公开发布
<a href=""><img src="https://img.shields.io/badge/Model-Legal--Base--7B-blue"></a>
<a href=""><img src="https://img.shields.io/badge/Model-LaWGPT--7B--beta1.0-yellow"></a>
- **Legal-Base-7B**:法律基座模型,使用 50w 中文裁判文书数据二次预训练
- **LaWGPT-7B-beta1.0**:法律对话模型,构造 30w 高质量法律问答数据集指令精调
- **LaWGPT-7B-beta1.0**:法律对话模型,构造 30w 高质量法律问答数据集基于 Legal-Base-7B 指令精调
- 🌟 2023/04/12内部测试 <a href=""><img src="https://img.shields.io/badge/Model-Lawgpt--7B--alpha-yellow"></a>
- 🌟 2023/04/12内部测试
<a href=""><img src="https://img.shields.io/badge/Model-Lawgpt--7B--alpha-yellow"></a>
- **LaWGPT-7B-alpha**:在 Chinese-LLaMA-7B 的基础上直接构造 30w 法律问答数据集指令精调
## 快速开始
@ -157,9 +160,12 @@ LawGPT 系列模型的训练过程分为两个阶段:
请诸君在使用前了解上述问题,以免造成误解和不必要的麻烦。
## 协作者
如下各位合作开展(按字母序排列):[@cainiao](https://github.com/herobrine19)、[@njuyxw](https://github.com/njuyxw)、[@pengxiao-song](https://github.com/pengxiao-song)
如下各位合作开展(按字母序排列):[@cainiao](https://github.com/herobrine19)、[@njuyxw](https://github.com/njuyxw)、[@pengxiao-song](https://github.com/pengxiao-song)
## 免责声明
请各位严格遵守如下约定:
@ -168,6 +174,7 @@ LawGPT 系列模型的训练过程分为两个阶段:
2. 模型输出受多种不确定性因素影响,本项目当前无法保证其准确性,**严禁用于真实法律场景**。
3. 本项目不承担任何法律责任,亦不对因使用相关资源和输出结果而可能产生的任何损失承担责任。
## 问题反馈
如有问题,请在 GitHub Issue 中提交。
@ -177,6 +184,7 @@ LawGPT 系列模型的训练过程分为两个阶段:
协作者科研之余推进项目进展,由于人力有限难以实时反馈,给诸君带来不便,敬请谅解!
## 致谢
本项目基于如下开源项目展开,在此对相关项目和开发人员表示诚挚的感谢:
@ -187,7 +195,8 @@ LawGPT 系列模型的训练过程分为两个阶段:
- alpaca-lora: https://github.com/tloen/alpaca-lora
- ChatGLM-6B: https://github.com/THUDM/ChatGLM-6B
此外,本项目基于诸多开源数据集展开,详见[数据汇总](),在此一并表示感谢。
此外,本项目基于诸多开源数据集展开,详见 [Awesome Chinese Legal Resources](https://github.com/pengxiao-song/awesome-chinese-legal-resources)一并表示感谢。
## 引用

Binary file not shown.

Before

Width:  |  Height:  |  Size: 369 KiB

After

Width:  |  Height:  |  Size: 762 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 320 KiB

After

Width:  |  Height:  |  Size: 651 KiB

Binary file not shown.

Before

Width:  |  Height:  |  Size: 306 KiB

After

Width:  |  Height:  |  Size: 605 KiB