From ba2a44b8887bb4e6ef213c89281518b7522b391c Mon Sep 17 00:00:00 2001
From: miyao-yusuke
- 大規模言語モデル(LLM)のファインチューニングに関心のある研究者が議論を行うワークショップを実施する.LLMを活用するためには,事前学習だけでなく,利用目的・ドメインに合わせたファインチューニングが必要不可欠である.SFT, DPO, LoRA などのファインチューニング技術や, ファインチューニングのためのデータセット構築がその代表だが,下流タスクの精度向上やアライメントを実現させる技術であればこれらに限らない. ファインチューニング技術を競うコンペティションを行い,用いられた技術や結果について発表を行うとともに,招待講演を行う.
第1回「大規模言語モデルのファインチューニング技術と評価」ワークショップ
+ The First Workshop on Fine-Tuning and Evaluation of Large Language Models (FT-LLM 2025)
- The First Workshop on Fine-Tuning on Large Language Model (FT LLM 2025)
-
@@ -101,7 +101,17 @@ NLP2025併設のワークショップ
+ NLP2025 併設ワークショップ
ワークショップ概要
+ 後日掲載します。 + コンペティション参加者による発表、コンペティションの結果の評価・議論、招待講演を予定しています. +
+