diff --git a/index.html b/index.html index 0f90c6f..108edf4 100644 --- a/index.html +++ b/index.html @@ -90,10 +90,10 @@

第1回「大規模言語モデルのファインチューニング技術と評価」ワークショップ
- The First Workshop on Fine-Tuning on Large Language Model (FT LLM 2025)

+ The First Workshop on Fine-Tuning and Evaluation of Large Language Models (FT-LLM 2025)

@@ -101,7 +101,17 @@

ワークショップ概要

- 大規模言語モデル(LLM)のファインチューニングに関心のある研究者が議論を行うワークショップを実施する.LLMを活用するためには,事前学習だけでなく,利用目的・ドメインに合わせたファインチューニングが必要不可欠である.SFT, DPO, LoRA などのファインチューニング技術や, ファインチューニングのためのデータセット構築がその代表だが,下流タスクの精度向上やアライメントを実現させる技術であればこれらに限らない. ファインチューニング技術を競うコンペティションを行い,用いられた技術や結果について発表を行うとともに,招待講演を行う.

+ 大規模言語モデル(LLM)のファインチューニングに関心のある研究者が議論を行うワークショップを実施する. + LLMを活用するためには,事前学習だけでなく,利用目的・ドメインに合わせたファインチューニングが必要不可欠である. + ファインチューニング技術を競うコンペティションを行い,用いられた技術や結果について発表を行うとともに,招待講演を行う. +

+ +

プログラム

+

+ 後日掲載します。 + コンペティション参加者による発表、コンペティションの結果の評価・議論、招待講演を予定しています. +

+