ブラックボックス言語モデルの複製と解析

2024/04/10 (Wed) 08:30–10:00 (JST)

橋本龍範 / Tatsunori Hashimoto (Stanford University)

[Webサイト]

Tatsunori Hashimoto is an Assistant Professor in the Computer Science Department at Stanford University. He is a member of the statistical machine learning and natural language processing groups at Stanford and his work focuses on statistical approaches to improving and understanding language models. Work from his group spans many areas, including instruction-following and controllable language models, differentially private fine-tuning, and benchmarks for LM safety and capabilities. He received his Ph.D. at MIT under the supervision of Tommi Jaakkola and David Gifford, and is a Kavli fellow, a Sony and Amazon research award winner, and his work has been recognized with best paper awards at ICML and CHI.

概要

大規模言語モデルの進化は、驚くべき能力の向上をもたらしています。しかし、これらの技術が商業化される過程で、透明性が徐々に失われてきました。最新の言語モデルはブラックボックス化され、そのトレーニングアルゴリズムやデータアノテーション、使用データの詳細には多くの未解明の点があります。 本講演では私の研究グループが最近行った3つのプロジェクトを紹介します:RLHFトレーニングプロセス(AlpacaFarm)の再現、言語モデルを用いて事前トレーニングとRLHFデータに反映される意見の源を探る(OpinionQA)、そして言語モデルのテストセット汚染を発見、証明するアルゴリズムの開発。このようなプロジェクトを通じて今後のブラックボックス言語モデルをどう研究するかに関する意見も述べたいと思います。

※トークは日本語です。

[動画] [スライド] [論文1] (NeurIPS 2023) [論文2] (ICML 2023) [論文3] (ICLR 2024)

メーリングリストへの登録: 参加用URLなどNLPコロキウムに関するお知らせを受け取りたい方はメーリングリストへのご登録をお願いします。

メーリングリスト登録フォーム

[トップページへ戻る]