gpt2-japaneseのmediumモデルで架空のNAIST生をD進させてD進後の状況を独白してもらう

こんにちは、品川です。

最近仕事でGPT-2,3について調べてたのですが、日本語GPT-2を作っているプロジェクトのことを知りました。

github.com

見てみると学習済みモデル(small, medium)が公開済みで、fine-tuning用のコードなども揃っておりいたく感動しました。
本記事は生成結果をぜひみてみたいということで試してみたという趣旨の記事になります。

使い方は上記リポジトリのREADMEを読んでいただければ良いかと思います。
contextをオプションで指定することで、contextに沿った生成が可能とのこと。なるほど、ならば架空のNAIST生をD進させてD進後の状況を独白してもらうことも可能・・・?

早速試してみる(この結果はフィクションです)

python gpt2-generate.py \
   --model gpt2ja-medium \
   --num_generate 20 \
   --context="私は奈良先端科学技術大学院大学の博士後期課程に進学してからというもの、"

GPT-2の生成結果でネットが汚れたら嫌だなという良心の呵責が出たので、結果をこちらに置きました。
20名の架空のNAIST生による味わい深いD進、甘酸っぱいD進、闇のD進、色々なD進をお楽しみください。

drive.google.com