license: apache-2.0
license_link: https://huggingface.co/Qwen/Qwen2.5-32B-Instruct/blob/main/LICENSE
language:
- en
pipeline_tag: text-generation
base_model: Qwen/Qwen2.5-32B
tags:
- chat
library_name: transformers
Flux-Japanese-Qwen2.5-32B-Instruct-V1.0
[English] [Japanese]
Flux-Japanese-Qwen2.5-32B-Instruct-V1.0は、320億個のパラメータを持つオープンウェイトの大規模言語モデルです。日本語に関する深い知識と、高度な推論能力および言語能力を特長としています。Qwen2.5‑32B‑Instruct をベースとしてトレーニングされ、Apache 2.0 オープンソースライセンスの下で提供されています。
🏆 Open-Japanese-LLM-Leaderboard 第1位
Open LLM Japanese LLM Leaderboard において、以下の結果となりました。 - ベースモデル:「Qwen2.5‑32B‑Instruct 」(平均スコア:0.6553) - 元評価トップのモデル:「D2IL‑Japanese‑Qwen2.5‑32B‑Instruct‑v0.1 」(平均スコア: 0.7100) - 本モデル:「Flux‑Japanese‑Qwen2.5‑32B‑V1.0 」(平均スコア:0.7417) ベースモデルである Qwen2.5‑32B‑Instruct と比較すると、本モデルはほとんどのタスクで性能が大幅に向上し、特に FA(Fundamental Analysis/基礎分析)、SUM(Summarization/要約)、CG(Code Generation/コード生成) において顕著な改善が見られます。
| Tasks | Qwen2.5-32B-Instruct | D2IL-Japanese-Qwen2.5-32B-Instruct-v0.1 | Flux-Japanese-Qwen2.5-32B-Instruct-V1.0 |
|---|---|---|---|
| NLI - 自然言語推論 | 0.8106 | 0.8793 | 0.8846 (+0.0740) |
| QA - 質問応答 | 0.541 | 0.5897 | 0.5965 (+0.0555) |
| RC - 読解力 | 0.9047 | 0.9005 | 0.9261 (+0.0214) |
| MC - 多肢選択式質問応答 | 0.8966 | 0.9139 | 0.9128 (+0.0162) |
| EL - エンティティリンキン | 0.5894 | 0.6782 | 0.6975 (+0.1081) |
| FA - 基礎分析 | 0.2737 | 0.4321 | 0.5185 (+0.2448) |
| MR - 数学的推論 | 0.944 | 0.938 | 0.9420 (-0.0020) |
| MT - 機械翻訳 | 0.8479 | 0.7954 | 0.8389 (-0.0090) |
| HE - 試験問題 | 0.7757 | 0.7902 | 0.7987 (+0.0230) |
| CG - コード生成 | 0.5281 | 0.6084 | 0.7610 (+0.2329) |
| SUM - 要約 | 0.097 | 0.2843 | 0.2827 (+0.1857) |
| Average | 0.6553 | 0.71 | 0.7417 (+0.0864) |
🚀 一貫した汎用性能
Flux‑Japanese‑Qwen2.5‑32B‑Instruct‑V1.0は学習により日本語能力が大幅に改善した一方で、汎用的なタスクや英語でのタスク遂行能力においても性能を維持しており、ベースモデルである「Qwen2.5-32B-Instruct」と比較して、1%以下というごく僅かな差にとどまっています。評価は simple-evals に基づいて行われています。
| Tasks | Dataset | Qwen2.5-32B-Instruct | Flux-Japanese-Qwen2.5-32B-Instruct-V1.0 |
|---|---|---|---|
| General Tasks | MMLU-redux | 80.37 | 80.03 (-0.34) |
| GPQGA-Diamond | 46.11 | 47.32 (+1.21) | |
| MMLU | 82.84 | 83.39 (+0.55) | |
| Math Tasks | MATH-500 | 78.14 | 78.50 (+0.36) |
| AIME24 | 17.06 | 17.92 (+0.86) | |
| AIME25 | 16.25 | 14.58 (-1.67) | |
| MT-AIME24 | 12.73 | 12.97 (+0.24) | |
| Multilingual Tasks | Multi-IF | 71.85 | 63.45 (-8.40) |
| INCLUDE | 65.16 | 64.64 (-0.52) | |
| MMMLU | 73.43 | 74.08 (+0.65) | |
| Coding Tasks | HumanEval | 87.93 | 86.51 (-1.42) |
| Alignment Tasks | IFEval | 78.37 | 77.46 (-0.91) |
| Average | 59.17 | 58.40 (-0.77) |
⚙️ 技術開発

- Phase 1: Interpretability Analysis & Pinpoint Tuning — 日本語能力(知識・推論・言語)向上のために、Mechanistic Interpretability (MI)技術を活用することで、特定のパスと回路を識別し、僅か5%のパラメータに対してPinpoint Tuningを実施する方法を採用しました。これにより日本語の知識・推論・言語のそれぞれの能力に特化した3つのエキスパートモデルを作成しました。
- Phase 2: Pinpoint Merging — 3つのエキスパートモデルに対し、Pinpoint Merging を実施し、日本語の知識・推論・言語の各分野でエキスパートレベルの性能を備えた”日本語特化”統合モデルを構築します。 [Pinpoint Merging のコード].
🚩 クイックスタート
from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model onto
model = AutoModelForCausalLM.from_pretrained(
"Deep-Analysis-Research/Flux-Japanese-Qwen2.5-32B-V1.0",
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("Deep-Analysis-Research/Flux-Japanese-Qwen2.5-32B-V1.0")
prompt = "大規模言語モデルについて簡単に紹介してください。"
messages = [
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)
generated_ids = model.generate(
model_inputs.input_ids,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
💡 利用規約
本モデルは、バイアスや有害な応答をはじめとする各種リスクを低減するため、様々な技術的アプローチを用いて、その安全性と信頼性の向上に努めております。 しかし、本モデルを含む全ての大規模言語モデル(LLM)には、不正確な情報、誤解を招く内容、あるいは偏見を反映した、意図しない応答を生成する可能性が依然として存在します。本モデルをダウンロード、利用、または対話形式で使用することにより、利用者は以下の事項を理解し、これに同意したものとみなされます。
- 禁止事項
- 利用者は、本モデルを、詐欺、濫用、嫌がらせ、プライバシー侵害、悪意のあるコンテンツの作成/拡散などを含む、違法、または法令に違反する悪質な活動に利用することは禁止します。
- 利用者の責任
- 本モデルの使用方法及びその利用に起因して生じるすべての事象については、利用者自身が単独で責任を負うこととします。
- 本モデルの公開に関与した作成者・公開者及び機関は、その使用に起因して生じるいかなる結果についても、一切の責任を負いません。
- 保証
- 本モデルは現状の状態で提供され、いかなる保証も伴いません。