![驚異の1ビットLLMを試す。果たして本当に学習できるのか?|shi3z](https://cdn-ak-scissors.b.st-hatena.com/image/square/55d74e82a4eaedc95fefa002aecfbe1543622d57/height=288;version=1;width=512/https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F132388271%2Frectangle_large_type_2_e6f96c0fb566eadb83d7b07463973817.jpeg%3Ffit%3Dbounds%26quality%3D85%26width%3D1280)
Googleが年次開発者向け会議「Google I/O 2021」の中で、対話特化型の言語モデル「LaMDA」を発表しました。 LaMDA: our breakthrough conversation technology https://blog.google/technology/ai/lamda/ Google showed off its next-generation AI by talking to Pluto and a paper airplane - The Verge https://www.theverge.com/2021/5/18/22442328/google-io-2021-ai-language-model-lamda-pluto 新たに発表されたLaMDAは、「Transformer」という言語理解用ニューラルネットワークアーキテクチャを採用した対話特化型
With more board configurations than there are atoms in the universe, the ancient Chinese game of Go has long been considered a grand challenge for artificial intelligence. On March 9, 2016, the worlds of Go and artificial intelligence collided in South Korea for an extraordinary best-of-five-game competition, coined The DeepMind Challenge Match. Hundreds of millions of people around the world wa
Deep Learningの学習結果(重み)はブラックボックスで、隠れ層のユニット(特に深い層の!)が一体何を学習したのかがよくわからないと長年言われてきた。しかし、今回紹介する方法を使うとニューラルネットが何を学習したのか目で見える形で表現できる。 畳み込みニューラルネットで学習したフィルタの可視化というと以前やったように学習した第1層のフィルタの重みを直接画像として可視化する方法がある。 しかし、畳み込みフィルタのサイズは基本的に数ピクセル(MNISTの例では5x5ピクセル程度)のとても小さな画像なのでこれを直接可視化しても何が学習されたか把握するのはとても難しい。たとえば、MNISTを学習した畳み込みニューラルネット(2016/11/20)のフィルタを可視化しても各フィルタがどの方向に反応しやすいかがわかる程度だ。 各フィルタが何を学習したかを可視化する別のアプローチとして各フィルタ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く