Update README.md
Browse files
README.md
CHANGED
@@ -56,10 +56,14 @@ print(history)
|
|
56 |
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
|
57 |
```
|
58 |
|
59 |
-
|
|
|
|
|
|
|
60 |
|
|
|
61 |
```python
|
62 |
-
model = AutoModel.from_pretrained("THUDM/chatglm-6b",
|
63 |
```
|
64 |
|
65 |
进行 2 至 3 轮对话后,8-bit 量化下约占用 10GB 的 GPU 显存,4-bit 量化仅需占用 6GB 的 GPU 显存。随着对话轮数的增多,对应消耗显存也随之增长。
|
|
|
56 |
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
|
57 |
```
|
58 |
|
59 |
+
替换为(8-bit 量化)
|
60 |
+
```python
|
61 |
+
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().quantize(8).cuda()
|
62 |
+
```
|
63 |
|
64 |
+
或者(4-bit 量化)
|
65 |
```python
|
66 |
+
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().quantize(4).cuda()
|
67 |
```
|
68 |
|
69 |
进行 2 至 3 轮对话后,8-bit 量化下约占用 10GB 的 GPU 显存,4-bit 量化仅需占用 6GB 的 GPU 显存。随着对话轮数的增多,对应消耗显存也随之增长。
|