transformerに関するfuyu77のブックマーク (5)
-
-
by duallogicAIによる文章生成ツール﹁GPT-2﹂はあまりにも高度な文章が作成できることから、﹁危険すぎる﹂と判断され公開が延期されていました。2019年2月に小型モデル、5月に中型モデルと、段階的に公開されていたGPT-2でしたが、新たに7億4700万個のパラメーターを持つより大きなモデルが公開されています。 GPT-2: 6-Month Follow-Up https://openai.com/blog/gpt-2-6-month-follow-up/ GPT_2_August_Report.pdf (PDFファイル)https://d4mucfpksywv.cloudfront.net/GPT_2_August_Report.pdf OpenAIは2019年2月にテキスト生成用のAIモデル﹁GPT-2﹂を開発しましたが、あまりにも高度な文章が作成されてしまうため、﹁悪用
-
こんにちは。ミクシィ AIロボット事業部でしゃべるロボットを作っているインコです。 この記事は ミクシィグループ Advent Calendar 2018 の5日目の記事です。 この記事の目的 この記事では2018年現在 DeepLearning における自然言語処理のデファクトスタンダードとなりつつある Transformerを作ることで、 Attention ベースのネットワークを理解することを目的とします。 機械翻訳などの Transformer, 自然言語理解の BERT やその他多くの現在 SoTA となっている自然言語処理のモデルは Attention ベースのモデルです。 Attention を理解することが今後の自然言語処理 x Deep Learning の必須になってくるのではないでしょうか。 この記事にかかれているコード (Github) 歴史 - RNN から
-
2019.12.24 自然言語処理の技術紹介‥危険すぎる︵GPT-2︶モデルと関連する技術を試してみた話︵簡単な翻訳、ニュースの内容とFX動きの予測︶ こんにちは。次世代システム研究室のK.S.︵女性、外国人︶です。 そろそろ今年︵2019年︶も終わるということで、今年、盛り上がっていた人工知能︵AI︶の一部の関連技術をふりかえってみました。自分の勝手な印象ですが、今年の気になった技術だと、自然言語処理といったAIの一つです。特に、びっくり技術ニュースといえば、危険すぎると言われた自動文章作成モデルGPT-2だろうなと思いました。ということで、今回のブログでは、GPT-2についての勉強と簡単な実装を共有させて頂きたいと思います。 遡ってみると、2019年2月に、OpenAIといった有名な人工知能︵AI︶を研究する非営利団体がテキスト生成などの大規模な自然言語モデル︵GPT-2︶を発表しまし
-
この例に関する質問への回答を補足の項に記載しましたので、より良い理解のためにご参照ください。 1.3 モデル構造 トランスダクションモデル(ある文章を他の文章に変換するモデル(翻訳など))において主流なのは以下のようなエンコーダ-デコーダモデルである。 エンコーダ: 入力の文 $(x_1,\ldots,x_n)$ を $\boldsymbol{z}=(z_1,\ldots,z_n)$ へ変換 デコーダ: $\boldsymbol{z}$ から単語 $(y_1,\ldots,y_m)$ を出力。 ただし、1時刻に1単語のみで、前時刻のデコーダの出力を現時刻のデコーダの入力として使う。 Transformerは基本的な大枠はエンコーダ-デコーダモデルでself-attention層とPosition-wise全結合層を使用していることが特徴。 つまり、以下の3つ(+2つ)のことが分かればモデル
-
1