第27回LLM勉強会

2026年3月17日(火)国立情報学研究所にて第27回 LLM 勉強会 (報告会) を開催しました。

発表者一覧 (順不同)

<評価・チューニング>

  • LLMの日本語指示追従性向上のための人工データセットの構築 (守山) [PDF]
  • AIエージェントのためのツール呼び出し評価データJMultiWOZ-TCの構築 (清水) [PDF]
  • どのフィードバックが誰に効果的か?学習者プロファイル別LLM生成フィードバック要素の差異効果 (古橋) [PDF]
  • 小学校漢字学習における LLM 生成物語の「違和感」に関する類型化 (高見) [PDF]
  • パラメータ間の距離に基づくLLMの事前学習データの寄与分析 (西田) [PDF]

<原理解明 WG>

  • 損失曲線のクラスタリングによる言語モデルの訓練ダイナミクスのボトムアップな解釈 (青木) [PDF]
  • 排他的逆学習 (佐々木) [PDF]
  • 言語モデルにおける統語的長距離依存関係構築の内部操作 (木村) [PDF]

<マルチモーダル WG>

  • JAMMEval: 再アノテーションによる日本語 VQA 評価データセッ トの信頼性向上 (杉浦) [PDF]
  • Omni-JDocVQA: 多種多様な文書を含んだ日本語視覚文書理解ベンチマークの構築 (梶川) [PDF]
  • LayoutLMv3の日本語事前学習に関する検証 (柳澤) [PDF]
  • ABMamba: 深層状態空間モデルに基づくMultimodal LLMによる動画像理解 (八島) [PDF]
  • JaWildText: 日本語文字認識のための実世界画像評価データセット (前田) [PDF]

<モデル構築 WG>

  • Mixture-of-Experts言語モデルにおける最適なスパーシティ (中村)[PDF]

<コーパス構築WG>

  • LLMの生成テキストの真偽検証 (清丸、政野)
  • 合成データによるデータ制約のある言語モデルのスケーリング (清丸) [PDF]
  • 大規模コーパスにおける要配慮個人情報検出の精度向上 (源) [PDF]
  • 合成データを用いた大規模言語モデル学習の効果分析 (中村) [PDF]

<安全性WG>

  • マルチターン自動レッドチーミングによる安全性強化学習 (佐多) [PDF]
  • マルチターン対話における人手レッドチーミングと自動レッドチーミングの比較 (瀬光) [PDF]

<学術ドメインWG>

  • ドメイン適応過程における多言語知識獲得ダイナミクスの解析 ― 生物医学分野への適応事例 ― (趙) [PDF]

<対話WG>

  • Moshi に基づく音声対話モデルの日本語ファインチューニングにおける対話データ特性の影響 (阿部) [PDF]
  • Common Crawlを用いた大規模音声音響データセットの構築 (淺井) [PDF]

参加者

現地24名・オンライン54名