概要 BERT (Bidirectional Encoder Representations from Transformers) は、NAACL2019で論文が発表される前から大きな注目を浴びていた強力な言語モデルです。これまで提案されてきたELMoやOpenAI-GPTと比較して、双方向コンテキストを同時に学習するモデルを提案し、大規模コーパスを用いた事前学習とタスク固有のfine-tuningを組み合わせることで、各種タスクでSOTAを達成しました。 そのように事前学習によって強力な言語モデルを獲得しているBERTですが、今回は日本語の学習済みBERTモデルを利用して、文章埋め込み (Sentence Embedding) を計算してみようと思います。 環境 今回は京都大学の黒橋・河原研究室が公開している﹁BERT日本語Pretrainedモデル﹂を利用します。 BERT日本語Pre
![pytorchでBERTの日本語学習済みモデルを利用する - 文章埋め込み編](https://cdn-ak-scissors.b.st-hatena.com/image/square/2ef2c9fd0a0cf918c19c9cf0fbf52ec5c4e92350/height=288;version=1;width=512/https%3A%2F%2Fyag-ays.github.io%2Fimg%2Fbanner.png)