リリース

Models / Corpus / Tools ​

LLM-jp で開発したモデルやツールを公開しています。
  • 本ページで公開しているリソースをご利用される際は、論文や記事等で引用・言及していただけますと幸いです。​
  • 本モデルを活用される事業者におかれましては、「人工知能関連技術の研究開発及び活用の適正性確保に関する指針」(令和7年12月19日 人工知能戦略本部決定)に則り、各自の責任において適切にご活用ください。
公開プラットフォーム
モデル
チューニング済/事前学習済/マルチモーダル
コーパス
事前訓練コーパス/データ/構築スクリプト
ツール
評価・学習ユーティリティ
チューニング済みモデル
llm-jp-4-8b-thinking
llm-jp-4-32b-a3b-thinking
事前訓練済みモデル
llm-jp-4-8b-base
llm-jp-4-32b-a3b-base
マルチモーダルモデル
LLM-jp-3-VILA-14B
音声対話モデル
LLM-jp-Moshi-v1
事前訓練コーパス
LLM-jp-corpus v4.1
LLM-jp-midtraining-corpus v1
LLM-jp-midtraining-corpus v2
チューニングデータ
llm-jp-4-thinking-sft-data
llm-jp-4-8b-thinking-dpo-data
llm-jp-4-32b-a3b-
thinking-dpo-data
ac-self-inst​
aya-ja-evol-inst​
AnswerCarefully
magpie-sft-v1.0​
databricks-dolly-15k-ja​
oasst1-21k-ja​
oasst2-33k-ja​
hh-rlhf-12k-ja​
ツール
事前訓練コーパス構築スクリプト v2.0
事前訓練コーパス構築スクリプト v1.0
トークナイザ
[評価ツール]

llm-jp-eval​
[評価ツール]

 llm-jp-judge​
[チューニングスクリプト]


trl ベース SFT
[チューニングスクリプト]


trl ベース DPO
[チューニングスクリプト]


Nemo-Aligner ベース
※SFT と DPO の両方をサポート
リーダーボード (Weights & Biases)
Open LLM leaderboard
(英語ベンチマーク)による
日本語LLMの評価結果
日本語 VicunaQA
ベンチマーク
全てのモデル
チューニング済みモデル
LLM-jp-4

llm-jp-4-8b-thinking

llm-jp-4-32b-a3b-thinking

LLM-jp-3.1

LLM-jp-3.1-8x13b-instruct4

LLM-jp-3.1-13b-instruct4

LLM-jp-3.1-1.8b-instruct4

LLM-jp-3

LLM-jp-3-8x13b-instruct3

LLM-jp-3-172B-instruct3

LLM-jp-3-172B-beta2-instruct2

アクセスに承認が必要です。再配布と一部の使途が制限されています。

LLM-jp-3-172B-beta1-instruct

アクセスに承認が必要です。再配布と一部の使途が制限されています。

LLM-jp-3-13B-instruct3

LLM-jp-3-8×1.8b-instruct3

LLM-jp-3-7.2B-instruct3

LLM-jp-3-3.7B-instruct3

LLM-jp-3-1.8B-instruct3

LLM-jp-3-980M-instruct3

LLM-jp-3-440M-instruct3

LLM-jp-3-150M-instruct3

LLM-jp-3-8x13b-instruct2

LLM-jp-3-172B-instruct2

LLM-jp-3-13B-instruct2

LLM-jp-3-8×1.8b-instruct2

LLM-jp-3-7.2B-instruct2

LLM-jp-3-3.7B-instruct2

LLM-jp-3-1.8B-instruct2

LLM-jp-3-980M-instruct2

LLM-jp-3-440M-instruct2

LLM-jp-3-150M-instruct2

LLM-jp-3-13B-instruct

LLM-jp-3-7.2B-instruct

LLM-jp-3-3.7B-instruct

LLM-jp-3-1.8B-instruct

13B v2.0

LLM-jp-13b-instruct-full-dolly-ichikara_004_001_single-oasst-oasst2-v2.0

LLM-jp-13b-instruct-full-ac_001-dolly-ichikara_004_001_single-oasst-oasst2-v2.0

LLM-jp-13b-instruct-full-ac_001_16x-dolly-ichikara_004_001_single-oasst-oasst2-v2.0

13B v1.1

LLM-jp-13b-dpo-lora-hh_rlhf_ja-v1.1

LLM-jp-13b-instruct-full-dolly_en-dolly_ja-ichikara_003_001-oasst_en-oasst_ja-v1.1

LLM-jp-13b-instruct-lora-dolly_en-dolly_ja-ichikara_003_001-oasst_en-oasst_ja-v1.1

13B v1.0

LLM-jp-13B-instruct-full-jaster-v1.0

LLM-jp-13B-instruct-full-jaster-dolly-oasst-v1.0

LLM-jp-13B-instruct-full-dolly-oasst-v1.0

LLM-jp-13B-instruct-lora-jaster-v1.0

LLM-jp-13B-instruct-lora-jaster-dolly-oasst-v1.0

LLM-jp-13B-instruct-lora-dolly-oasst-v1.0

事前訓練済みモデル
LLM-jp-4

llm-jp-4-8b-base

llm-jp-4-32b-a3b-base

LLM-jp-3.1

LLM-jp-3.1-8x13b

LLM-jp-3.1-13b

LLM-jp-3.1-1.8b

LLM-jp-3

LLM-jp-3-8x13b

LLM-jp-3-172B

アクセスに承認が必要です。再配布と一部の使途が制限されています。

LLM-jp-3-172B-beta2

アクセスに承認が必要です。再配布と一部の使途が制限されています。

LLM-jp-3-172B-beta1

アクセスに承認が必要です。再配布と一部の使途が制限されています。

LLM-jp-3-8×1.8b

13B v2.0

LLM-jp-13B-v2.0

13B v1.1

LLM-jp-13B-v1.0

13B v1.0

LLM-jp-1.3B-v1.0

マルチモーダルモデル

LLM-jp-3-VILA-14B

その他

LLM-jp Modern BERT