香港科技大学PhD課程4年。2019年東京大学工学部計数工学科卒業。対話システムを中心に自然言語処理の研究に取り組む。
[Webサイト]
概要:With the emergence of powerful models such as ChatGPT, generative models for NLP tasks have drawn more and more attention. While successful, these models show undesired behavior called hallucination - generating a piece of text that contains nonsensical or unfaithful to the provided source content. In this talk, based on the review paper our lab published, I will provide a brief overview of hallucination in NLG tasks, and then dig into the related works in dialogue systems.
[動画] [スライド] [論文] (ACM Computing Surveys 2022)
※トークは日本語です。
参加用のZoom URLはメーリングリストで配信しています。
ほかの宣伝投稿はありません。いつでも抜けられます。