From fcb98e2adf27a1811d7455393aadef6fdd7f9e0b Mon Sep 17 00:00:00 2001 From: tpoisonooo Date: Wed, 17 Jan 2024 16:17:39 +0800 Subject: [PATCH] Update README_zh.md --- README_zh.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/README_zh.md b/README_zh.md index 615c1b64..67fb2b5c 100644 --- a/README_zh.md +++ b/README_zh.md @@ -158,7 +158,7 @@ python3 -m huixiangdou.main # docker 用户 1. 使用更高精度 local LLM - 把 config.ini 中的`llm.local` 模型调整为 `internlm2-20B`。 + 把 config.ini 中的`llm.local` 模型调整为 `internlm2-chat-20b`。 此选项效果显著,但需要更大的 GPU 显存。 2. Hybrid LLM Service