add ChatGLM-6B
This commit is contained in:
@ -855,6 +855,7 @@ OpenAI 的 ChatGPT 大型语言模型(LLM)并未开源,这部分收录一
|
||||
|[awesome-decentralized-llm](https://github.com/imaurer/awesome-decentralized-llm) ||能在本地运行的资源 LLMs。|-|
|
||||
|[minGPT](https://github.com/karpathy/minGPT) ||karpathy大神发布的一个 OpenAI GPT(生成预训练转换器)训练的最小 PyTorch 实现,代码十分简洁明了,适合用于动手学习 GPT 模型。|-|
|
||||
|[OpenChatKit](https://github.com/togethercomputer/OpenChatKit) ||开源了数据、模型和权重,以及提供训练,微调 LLMs 教程。|-|
|
||||
|[ChatGLM-6B](https://github.com/THUDM/ChatGLM-6B) ||ChatGLM-6B: An Open Bilingual Dialogue Language Model |ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。|
|
||||
|[ChatYuan](https://github.com/clue-ai/ChatYuan) ||ChatYuan-large-v2是ChatYuan系列中以轻量化实现高质量效果的模型之一,用户可以在消费级显卡、 PC甚至手机上进行推理(INT4 最低只需 400M )。|-|
|
||||
|[Stanford Alpaca](https://github.com/tatsu-lab/stanford_alpaca) ||来自斯坦福,建立并共享一个遵循指令的LLaMA模型。|-|
|
||||
|[gpt4all](https://github.com/nomic-ai/gpt4all) ||基于 LLaMa 的 LLM 助手,提供训练代码、数据和演示,训练一个自己的 AI 助手。|-|
|
||||
|
||||
Reference in New Issue
Block a user