Files
awesome-chatgpt-zh/docs/LLMs.md
2023-06-17 10:37:43 +08:00

10 KiB
Raw Blame History

LLMs

OpenAI 的 ChatGPT 大型语言模型LLM并未开源这部分收录一些深度学习开源的 LLM 供感兴趣的同学学习参考。

大模型

名称 Stars 简介 备注
Alpaca GitHub Repo stars Code and documentation to train Stanford's Alpaca models, and generate the data. -
BELLE GitHub Repo stars A 7B Large Language Model fine-tune by 34B Chinese Character Corpus, based on LLaMA and Alpaca. -
Bloom GitHub Repo stars BigScience Large Open-science Open-access Multilingual Language Model -
dolly GitHub Repo stars Databricks Dolly, a large language model trained on the Databricks Machine Learning Platform Databricks 发布的 Dolly 2.0 大语言模型。业内第一个开源、遵循指令的 LLM它在透明且免费提供的数据集上进行了微调该数据集也是开源的可用于商业目的。这意味着 Dolly 2.0 可用于构建商业应用程序,无需支付 API 访问费用或与第三方共享数据。
Falcon 40B Falcon-40B-Instruct is a 40B parameters causal decoder-only model built by TII based on Falcon-40B and finetuned on a mixture of Baize. It is made available under the Apache 2.0 license. -
FastChat (Vicuna) GitHub Repo stars An open platform for training, serving, and evaluating large language models. Release repo for Vicuna and FastChat-T5. 继草泥马Alpaca斯坦福联手CMU、UC伯克利等机构的学者再次发布了130亿参数模型骆马Vicuna仅需300美元就能实现ChatGPT 90%的性能。
GLM-6B (ChatGLM) GitHub Repo stars An Open Bilingual Pre-Trained Model, quantization of ChatGLM-130B, can run on consumer-level GPUs.
GLM-130B (ChatGLM) GitHub Repo stars An Open Bilingual Pre-Trained Model (ICLR 2023)
GPT-NeoX GitHub Repo stars An implementation of model parallel autoregressive transformers on GPUs, based on the DeepSpeed library.
Luotuo GitHub Repo stars An Instruction-following Chinese Language model, LoRA tuning on LLaMA 骆驼,中文大语言模型开源项目,包含了一系列语言模型。
minGPT GitHub Repo stars A minimal PyTorch re-implementation of the OpenAI GPT (Generative Pretrained Transformer) training。 karpathy大神发布的一个 OpenAI GPT(生成预训练转换器)训练的最小 PyTorch 实现,代码十分简洁明了,适合用于动手学习 GPT 模型。
ChatGLM-6B GitHub Repo stars ChatGLM-6B: An Open Bilingual Dialogue Language Model ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术用户可以在消费级的显卡上进行本地部署INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练辅以监督微调、反馈自助、人类反馈强化学习等技术的加持62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。
Open-Assistant GitHub Repo stars - 知名 AI 机构 LAION-AI 开源的聊天助手,聊天能力很强,目前中文能力较差。
llama.cpp GitHub Repo stars - 实现在MacBook上运行模型。
EasyLM GitHub Repo stars 在羊驼基础上改进的新的聊天机器人考拉。 介绍页
FreedomGPT GitHub Repo stars - 自由无限制的可以在 windows 和 mac 上本地运行的 GPT基于 Alpaca Lora 模型。
FinGPT GitHub Repo stars Data-Centric FinGPT. Open-source for open finance! Revolutionize 🔥 We'll soon release the trained model. 金融领域大模型
baichuan-7B GitHub Repo stars A large-scale 7B pretraining language model developed by Baichuan baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构在大约1.2万亿 tokens 上训练的70亿参数模型支持中英双语上下文窗口长度为4096。在标准的中文和英文权威 benchmarkC-EVAL/MMLU上均取得同尺寸最好的效果。

模型列表

名称 Stars 简介 备注
🤖 LLMs: awesome-totally-open-chatgpt GitHub Repo stars 开源LLMs 收集。 -
Open LLMs GitHub Repo stars 开源可商用的大模型。 -
Awesome-LLM GitHub Repo stars - 大型语言模型的论文列表,特别是与 ChatGPT相关的论文还包含LLM培训框架、部署LLM的工具、关于LLM的课程和教程以及所有公开可用的LLM 权重和 API。
FindTheChatGPTer GitHub Repo stars - 本项目旨在汇总那些ChatGPT的开源平替们包括文本大模型、多模态大模型等
LLMsPracticalGuide GitHub Repo stars 亚马逊科学家杨靖锋等大佬创建的语言大模型实践指南,收集了许多经典的论文、示例和图表,展现了 GPT 这类大模型的发展历程等 -
awesome-decentralized-llm GitHub Repo stars 能在本地运行的资源 LLMs。 -
OpenChatKit GitHub Repo stars 开源了数据、模型和权重,以及提供训练,微调 LLMs 教程。 -
Stanford Alpaca GitHub Repo stars 来自斯坦福建立并共享一个遵循指令的LLaMA模型。 -
gpt4all GitHub Repo stars 基于 LLaMa 的 LLM 助手,提供训练代码、数据和演示,训练一个自己的 AI 助手。 -
LMFlow GitHub Repo stars 共建大模型社区,让每个人都训得起大模型。 -
Alpaca-CoT GitHub Repo stars Alpaca-CoT项目旨在探究如何更好地通过instruction-tuning的方式来诱导LLM具备类似ChatGPT的交互和instruction-following能力。 -
OpenFlamingo GitHub Repo stars OpenFlamingo 是一个用于评估和训练大型多模态模型的开源框架,是 DeepMind Flamingo 模型的开源版本,也是 AI 世界关于大模型进展的一大步。 大型多模态模型训练和评估开源框架。

中文LLaMA&Alpaca大语言模型+本地部署: Chinese-LLaMA-Alpaca

项目开源了中文LLaMA模型和经过指令精调的Alpaca大模型。这些模型在原版LLaMA的基础上扩充了中文词表并使用了中文数据进行二次预训练进一步提升了中文基础语义理解能力。同时在中文LLaMA的基础上本项目使用了中文指令数据进行指令精调显著提升了模型对指令的理解和执行能力。

chinese_llama_alpaca

Visual OpenLLM

一种基于开源模型, 已交互方式连接不同视觉模型的开源工具。

  • 基于 ChatGLM + Visual ChatGPT + Stable Diffusion
  • 开源版的"文心一言"

visual_openllm

高效微调一个聊天机器人LLaMA-Adapter🚀

Lit-LLaMA

Lightning-AI 基于nanoGPT的LLaMA语言模型的实现。支持量化LoRA微调预训练。

lit_llama