Update README.md
Browse files
README.md
CHANGED
|
@@ -77,6 +77,7 @@ Lora学習時のcontext長は4096tokenまでですが、4k token以上の出力
|
|
| 77 |
注:bf16での使用を想定しています。
|
| 78 |
量子化推論する場合は、bf16でモデルを読み込んだ状態でLora適応またはマージ、その後に量子化してください。
|
| 79 |
|
|
|
|
| 80 |
学習強度が1/3と、2/3のcheck pointも公開しました
|
| 81 |
こちらのほうがベースモデルの汎化性能維持できている可能性があります
|
| 82 |
|
|
|
|
| 77 |
注:bf16での使用を想定しています。
|
| 78 |
量子化推論する場合は、bf16でモデルを読み込んだ状態でLora適応またはマージ、その後に量子化してください。
|
| 79 |
|
| 80 |
+
**2/8更新**
|
| 81 |
学習強度が1/3と、2/3のcheck pointも公開しました
|
| 82 |
こちらのほうがベースモデルの汎化性能維持できている可能性があります
|
| 83 |
|