[MNT] Update some file
This commit is contained in:
@ -1,7 +0,0 @@
|
||||
|
||||
CUDA_VISIBLE_DEVICES=1 python generate.py \
|
||||
--load_8bit \
|
||||
--base_model 'minlik/chinese-llama-7b-merged' \
|
||||
--lora_weights 'entity303/lawgpt-lora-7b' \
|
||||
--prompt_template 'law_template' \
|
||||
--share_gradio
|
||||
@ -1,16 +0,0 @@
|
||||
|
||||
# LawGPT
|
||||
python infer.py \
|
||||
--base_model 'minlik/chinese-alpaca-plus-7b-merged' \
|
||||
--lora_weights './outputs/chinese-alpaca-plus-7b-law-e1' \
|
||||
--instruct_dir './data/infer_law_data.json' \
|
||||
--prompt_template 'alpaca'
|
||||
|
||||
|
||||
# Chinese-Alpaca-plus-7B
|
||||
python infer.py \
|
||||
--base_model 'minlik/chinese-alpaca-plus-7b-merged' \
|
||||
--lora_weights '' \
|
||||
--instruct_dir './data/infer_law_data.json' \
|
||||
--prompt_template 'alpaca'
|
||||
|
||||
@ -1,20 +0,0 @@
|
||||
#!/bin/bash
|
||||
|
||||
WORLD_SIZE=8 CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7 torchrun --nproc_per_node=8 --master_port=1235 train_lora.py \
|
||||
--base_model '../models/base_models/chinese_llama_7b' \
|
||||
--data_path '' \
|
||||
--output_dir '../models/lora_weights' \
|
||||
--batch_size 128 \
|
||||
--micro_batch_size 8 \
|
||||
--num_epochs 1 \
|
||||
--learning_rate 0.0003 \
|
||||
--cutoff_len 1024 \
|
||||
--val_set_size 0 \
|
||||
--lora_r 16 \
|
||||
--lora_alpha 32 \
|
||||
--lora_dropout 0.05 \
|
||||
--lora_target_modules '[q_proj, v_proj, k_proj, o_proj]' \
|
||||
--train_on_inputs True \
|
||||
--add_eos_token True \
|
||||
--group_by_length True \
|
||||
--resume_from_checkpoint '../models/lora_weights'
|
||||
@ -4,7 +4,7 @@
|
||||
# 使用huggingface上已经训练好的模型
|
||||
python webui.py \
|
||||
--load_8bit True \
|
||||
--base_model 'minlik/chinese-alpaca-plus-7b-merged' \
|
||||
--base_model 'minlik/chinese-llama-7b-merged' \
|
||||
--lora_weights 'entity303/lawgpt-lora-7b' \
|
||||
--prompt_template "law_template" \
|
||||
--server_name "0.0.0.0" \
|
||||
@ -16,6 +16,6 @@ python webui.py \
|
||||
# --load_8bit True \
|
||||
# --base_model 'minlik/chinese-alpaca-plus-7b-merged' \
|
||||
# --lora_weights './outputs/chinese-alpaca-plus-7b-law-e1' \
|
||||
# --prompt_template "law_template" \
|
||||
# --prompt_template "alpaca" \
|
||||
# --server_name "0.0.0.0" \
|
||||
# --share_gradio Ture \
|
||||
Reference in New Issue
Block a user