コンテンツにスキップ
LLM-jp
ニュース
リリース
資料
ブログ
メンバー
勉強会
お問い合わせ
ニュース
リリース
資料
ブログ
メンバー
勉強会
お問い合わせ
JA
EN
LLM-jp
HOME
-
資料
資料
Documents / Slides
GitHubでは「
日本語LLMまとめ
」も公開しておりますので、そちらをご確認されたい方は以下をクリックしてください。
Open on GitHub
検索
ワーキンググループ/講演・報告
コーパス構築WG
マルチモーダルWG
モデル構築WG
原理解明 WG
学術ドメインWG
安全性WG
実環境インタラクションWG
対話WG
評価・チューニングWG
講演・報告等
すべて
開催会
第27回(2026-3-17)
第26回(2026-2-24)
第25回(2026-1-13)
第24回(2025-10-28)
第23回(2025-9-30)
第22回(2025-8-26)
第21回(2025-7-22)
第20回(2025-6-24)
第19回(2025-5-27)
第18回(2025-4-22)
第17回(2025-3-25)
第16回(2025-2-25)
第15回(2025-1-14)
第14回(2024-11-26)
第13回(2024-10-29)
第12回(2024-8-27)
第11回(2024-7-30)
第10回(2024-6-25)
第9回(2024-5-28)
第8回(2024-3-26)
第7回(2024-1-22)
第6回(2023-11-29)
第5回(2023-10-18)
第4回(2023-9-4)
第3回(2023-7-20)
第2回(2023-6-19)
第1回(2023-5-15)
すべて
公開資料一覧
実環境インタラクションWG
尾形
コーパス構築WG
河原
評価・チューニングWG
宮尾
マルチモーダルWG
岡崎
安全性WG
関根
モデル構築WG
鈴木
LLM-jp 状況報告
黒橋
オープンソースAIとは何か?「オープンソースAIの定義」ドラフト版の解説
佐渡秀治/LY Corporation
Hallucination対策に関する最近の動向
蔦/NII
コーパス構築WG
河原
安全性WG
関根
評価・チューニングWG
宮尾
マルチモーダルWG
岡崎
さくらクラスタの準備状況の報告
空閑/東大
モデル構築WG
鈴木
LLM-jp 状況報告
黒橋
大規模言語モデルによる文書画像理解の最新動向
NTT田中
Nejumi Leaderboard3の開発
W&B鎌田
Sarashina: SB Intuitionsの日本語事前学習モデルの紹介
SB Intuitions高瀬
Mechanistic Interpretabilityについて: Scaling Monosemanticity(Anthropic, 2024)の紹介
高木
コーパス構築WG
河原
モデル構築WG
鈴木
評価・チューニングWG
宮尾
安全性WG
関根
マルチモーダルWG
岡崎
LLM-jp 状況報告
黒橋
1000億パラメータ規模の日本語LLMの開発
stockmark近江
Databricksにおける生成AIの取り組み
Databricks弥生
他言語モデルの作成方法について
Lightblue Peter
コーパス構築WG
河原
モデル構築WG
鈴木
評価・チューニングWG
宮尾
安全性WG
関根
マルチモーダルWG
岡崎
LLM-jp 状況報告
黒橋
ABEJAにおけるGeniacプログラムの取り組み
服部
Prompt Tuning から Fine Tuning への移行時期推定
久保
LessNE実験
理研 関根
ichikara-instructionが生むハルシネーションを減らす実験
理研 関根
評価・チューニングWG
宮尾
コーパス構築WG
河原
安全性WG
関根
モデル構築WG
鈴木
観測データからのLLMの学習及び自己改善ループについて
京大 三内
因果推論手法との接地
京大 三内
ichikara-instructionを使ったLLMの人間による評価とGPTによる評価の比較分析
理研 関根
Kotoba Tech.の状態空間モデルと音声能力開発
Kotoba Tech. 小島
大規模言語モデルSwallow
東工大 岡崎、水木
安全性WG
関根
コーパス構築WG
河原
評価・チューニングWG
宮尾
モデル構築WG
鈴木
LLM-jp 状況報告
黒橋
LLMの安全対策サーベイと日本語データ
理研AIP 鈴木久美
ビジネスのドメインや最新情報に対応した130億パラメータの日本語事前学習モデルの開発
ストックマーク 近江
医療における大規模言語モデルの可能性と進歩
東大 小寺
コーパス構築WG
河原
モデル構築WG
鈴木
評価・チューニングWG
宮尾
安全性WG
関根
Heronを使ったV&Lの学習と応用
Turing 井ノ上
Metaの「Llama 2」をベースとした商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」について
ELYZA 中村
大規模言語モデル PLaMo-13Bの事前学習
Preferred Networks 三上
大規模言語モデルの実ロボット応用例
東大 河原塚
Model imitationによるInstruction tuningのサーベイ
水木
PEFT: LazyLoRA
Wu
Stability AI Japanにおける大規模言語モデルの研究開発
Lee
生成AI構築と著作権
柿沼
日英2ヶ国語対応の大規模言語モデル “Weblab-10B” の構築
小島
ACL2023 参加報告
児玉|山田|植田.出口
ACL2023 参加報告
山田
ACL2023 参加報告
植田
ACL2023 参加報告
出口
LLM周辺技術(2023年5月〜6月)
鶴岡
サイバーエージェント基盤モデルプロジェクトについて
石上・佐々木
日本語T5と学習におけるTips
西鳥羽
ABCI グランドチャレンジ参加報告
坂口
NICTでの大規模言語モデルの研究開発
鳥澤
NII からの話題提供:ドメイン適応
相澤
PaLM2 Technical Report 論文紹介
岡崎
日本語の基盤モデルと言語理解ベンチマークの共進化に向けて
河原
LLM サーベイ
河原・菅原・栗田
ページ
1
ページ
2
ページ
3
ニュース
リリース
資料
ブログ
メンバー
勉強会
お問い合わせ
ニュース
リリース
資料
ブログ
メンバー
勉強会
お問い合わせ
X-twitter
Github
Youtube
JA
EN