Skip to content

Commit

Permalink
Update index.html
Browse files Browse the repository at this point in the history
  • Loading branch information
miyao-yusuke authored Nov 18, 2024
1 parent e069247 commit ba2a44b
Showing 1 changed file with 13 additions and 3 deletions.
16 changes: 13 additions & 3 deletions index.html
Original file line number Diff line number Diff line change
Expand Up @@ -90,18 +90,28 @@

<h4 data-animation="fadeInUp" data-delay=".6s">
第1回「大規模言語モデルのファインチューニング技術と評価」ワークショップ<br>
The First Workshop on Fine-Tuning on Large Language Model (FT LLM 2025)</h4>
The First Workshop on Fine-Tuning and Evaluation of Large Language Models (FT-LLM 2025)</h4>
<p data-animation="fadeInUp" data-delay=".8s">
<ul>
<li> <h5>NLP2025併設のワークショップ</h5>
<li> <h5><a href="https://anlp.jp/nlp2025/">NLP2025</a> 併設ワークショップ</h5>
<li>場所:長崎出島メッセ
<li>日時:2025年3月14日
</ul>
</p>
<h4 data-animation="fadeInUp" data-delay=".6s">ワークショップ概要</h4>
<p data-animation="fadeInUp" data-delay=".8s">

大規模言語モデル(LLM)のファインチューニングに関心のある研究者が議論を行うワークショップを実施する.LLMを活用するためには,事前学習だけでなく,利用目的・ドメインに合わせたファインチューニングが必要不可欠である.SFT, DPO, LoRA などのファインチューニング技術や, ファインチューニングのためのデータセット構築がその代表だが,下流タスクの精度向上やアライメントを実現させる技術であればこれらに限らない. ファインチューニング技術を競うコンペティションを行い,用いられた技術や結果について発表を行うとともに,招待講演を行う.</p>
大規模言語モデル(LLM)のファインチューニングに関心のある研究者が議論を行うワークショップを実施する.
LLMを活用するためには,事前学習だけでなく,利用目的・ドメインに合わせたファインチューニングが必要不可欠である.
ファインチューニング技術を競うコンペティションを行い,用いられた技術や結果について発表を行うとともに,招待講演を行う.
</p>

<h4 data-animation="fadeInUp" data-delay=".6s">プログラム</h4>
<p data-animation="fadeInUp" data-delay=".8s">
後日掲載します。
コンペティション参加者による発表、コンペティションの結果の評価・議論、招待講演を予定しています.
</p>

</div>
</div>

Expand Down

0 comments on commit ba2a44b

Please sign in to comment.