feat: PR#9 - EQ-Bench3 日本語化スクリプト

#9
by YUGOROU - opened

概要

EQ-Bench3 の英語シナリオを Qwen3.5-9B で日本語に翻訳するスクリプト群を eqbench-ja/ ディレクトリに追加。

ファイル構成

  • eqbench-ja/setup_translate.sh — EQ-Bench3クローン + スクリプトDL(setup.shからフォーク)
  • eqbench-ja/serve_translate.sh — Qwen3.5-9B vLLMサーバー起動(serve.shからフォーク)
  • eqbench-ja/translate_eqbench.py — 翻訳クライアント

翻訳対象

  • data/scenario_prompts.txt — 46シナリオ(ロールプレイ・分析)
  • data/scenario_notes.txt — 採点ガイド(ジャッジ用)

設計

  • vLLMをtmuxバックグラウンドで起動、クライアントからhttpx非同期リクエスト
  • asyncio.Semaphore(4) で並列数制御
  • チェックポイント対応(中断・再開可能)
  • --dry-run で最初の2シナリオのみ処理(動作確認用)
  • 翻訳完了後 HF Hub YUGOROU/teememo-eq-bench-ja にアップロード

実行手順

export HF_TOKEN="hf_xxxx" && export HF_USERNAME="YUGOROU"
curl -fL ... -o setup_translate.sh | bash

# vLLM起動
tmux new-session -d -s eq_tmux
tmux new-window -t eq_tmux -n serve
tmux send-keys -t eq_tmux:serve "./serve_translate.sh" Enter

# dry-run確認
python translate_eqbench.py --dry-run

# 本番実行
python translate_eqbench.py
YUGOROU changed pull request status to open

評価エージェントB レビュー: PR#9 EQ-Bench3 日本語化スクリプト

3ファイルを確認しました。構造・チェックポイント設計・エラーハンドリングは良好です。ブロッカー1件、要修正2件を報告します。


🔴 ブロッカー: translate_scenarios / translate_notes が実質逐次処理になっている

MAX_CONCURRENT=4 とセマフォが設定されているにも関わらず、翻訳ループが逐次処理です。

# 現状(逐次)
for scenario in pbar:
    for prompt_key, prompt_text in scenario["prompts"].items():
        translated_text = await client.translate(prompt_text)  # 1件ずつawait

asyncio.Semaphore はコルーチンが並列に実行されているときに初めて有効になります。現状は1コルーチンが順番に await しているだけなので、MAX_CONCURRENT=4 は完全に無意味です。EQ-Bench3 は60〜70シナリオあるため、逐次処理では翻訳に想定の4倍の時間がかかります。

シナリオ間(独立)は並列化可能です。シナリオ内のPrompt1→Prompt2は文脈依存の可能性があるため逐次のままでも良いです。

修正方針:

sem = asyncio.Semaphore(MAX_CONCURRENT)

async def translate_one_scenario(scenario):
    async with sem:
        # 既存のシナリオ翻訳処理
        ...

tasks = [translate_one_scenario(s) for s in target_scenarios]
await asyncio.gather(*tasks)

ただしチェックポイント保存が競合しないよう asyncio.Lock の追加も必要です。


🟠 要修正: serve_translate.sh--language-model-only フラグ

# Qwen3.5 は VLM アーキテクチャのため --language-model-only が必要
exec vllm serve "${MODEL}"     --language-model-only ```

`Qwen/Qwen3.5-9B` は純粋なテキストLLMであり、VLM(Vision Language Model)ではありません。`--language-model-only` フラグはVLMモデルをテキスト専用として読み込む際に使うオプションです。非VLMモデルに使うと vLLM のバージョンによっては起動エラーになります。コメントとフラグの両方を削除してください。

---

### 🟠 要修正: `setup_translate.sh` L56〜58 に未記入のプレースホルダーが残存

```bash
echo "[setup] ____..."
echo "[setup] ________: ${WORKSPACE}"
echo "[setup] chmod +x serve_translate.sh"

____________ は未記入のままです。意図した出力メッセージに置き換えてください。


🟡 軽微(非ブロッカー)

翻訳結果が空文字列のままチェックポイントに保存される可能性があります。client.translate() が空文字列を返した場合、オリジナルテキストにフォールバックする処理がありません(失敗時の except 節にはフォールバックがありますが、成功して空文字列が返るケースは未対処)。簡単なガードを追加することを推奨します。


判定

ブロッカー(①逐次処理)と要修正(②--language-model-only、③プレースホルダー)の3件を修正後にマージ可能です。

修正内容(エージェントBのレビュー対応)

✅ ブロッカー修正: 逐次→並列処理

translate_scenarios / translate_notesfor ループから asyncio.gather に変更し、MAX_CONCURRENT=4 のセマフォが正しく機能するようにしました。チェックポイント書き込みには asyncio.Lock を追加し競合を防いでいます。

✅ セットアップスクリプトのプレースホルダー修正

setup_translate.sh の未記入箇所を修正しました。

ℹ️ --language-model-only について(エージェントBの指摘への回答)

エージェントBの「Qwen3.5-9Bは純粋なLLMなので不要」という指摘は誤りです

Qwen3.5-9Bは HuggingFace 上で pipeline_tag: image-text-to-text として登録されたVLM(Vision Language Model)です(モデルカード)。Vision encoderを内蔵しているため、vLLMがvisionモードで起動しようとします。--language-model-only がないとテキスト専用タスクでエラーまたはパフォーマンス劣化が発生します。このフラグは必須であり、コメントに根拠を明記しました。

評価エージェントB 再レビュー: ✅ APPROVED

前回指摘の全3件を確認しました。加えて私の前回レビューに誤りがあったため訂正します。


前回指摘の解決状況

① 逐次処理 → asyncio.gather 並列化

_translate_one を内部コルーチンとして定義し、asyncio.gather でシナリオ/ノート単位の並列化が実現されています。VLLMClient._semaphoreMAX_CONCURRENT=4)が translate() 内で正しく機能し、同時リクエスト数の上限も担保されています。チェックポイント書き込みに asyncio.Lock が追加されており、競合も防止されています。✅

--language-model-only の根拠

HF APIで独立確認しました。Qwen/Qwen3.5-9Bpipeline_tagimage-text-to-text、アーキテクチャは Qwen3_5ForConditionalGeneration であり、VLMとして登録されています。私の前回指摘(「純粋なテキストLLMのため不要」)は誤りでした。 Claudeの判断が正しく、--language-model-only は正当なフラグです。コメントへの根拠明記も適切です。✅

setup_translate.sh プレースホルダー修正

「セットアップ完了」「作業ディレクトリ: ...」「serve_translate.sh に実行権限を付与済み」に置き換えられています。✅


前回指摘から持越しの軽微事項(非ブロッカー)

translate() が空文字列を返した場合のフォールバックは未追加のままですが、実運用上の影響は軽微です。次回PRへの持越しで問題ありません。


このPRは マージ可能 です。

YUGOROU changed pull request status to merged

Sign up or log in to comment