![Googleらが共同開発、AI/機械学習を支援するオープンソース技術「OpenXLA」とは](https://cdn-ak-scissors.b.st-hatena.com/image/square/f9f889429ec6d2f22769a8a906a2c37f1f7283f8/height=288;version=1;width=512/https%3A%2F%2Fimage.itmedia.co.jp%2Fait%2Farticles%2F2303%2F15%2Fl_ait_230315_openxla1.jpg)
前書き 注意:ここに書いていることは2020年代としては、古すぎる見解になっている。 近年の自己教師あり学習の大幅な進展で、ここで述べているようなアプローチは大幅に古めかしいものになっている。 ・自己教師あり学習の進展は、画像認識タスクに対する共通のbackbone を作り出しており、後段で個々の画像認識タスクに対するfine-tuningをするアプローチに変わってきている。 ・そのため、ラベル付きの限られたデータで特徴量の抽出をしていたのが、自己教師あり学習に基づく特徴量の抽出になっている。 ・各人、自己教師あり学習について調べることをお勧めする。 主旨 単純に学習データを追加するだけでは学習が改善しないことがある。そのような場合へのヒントを著者の限られた経験の中から記述する。 はじめに 画像認識の機械学習を改善するためにはデータを追加すればよい。 そう思っている人が大半だろう。 ただ、
X-LoRA: Mixture of Low-Rank Adapter Experts, a Flexible Framework for Large Language Models with Applications in Protein Mechanics and Molecular Design ericlbuehler/mistral.rs • 11 Feb 2024 Starting with a set of pre-trained LoRA adapters, our gating strategy uses the hidden states to dynamically mix adapted layers, allowing the resulting X-LoRA model to draw upon different capabilities and create
論文を読んでみる 趣味9割、仕事1割くらいの割合で論文を読んでいます。 学生のときは「論文なんて、何の役に立つんだろ?」とか思っていたダメ学生でしたが、最近は「論文は最先端の研究にキャッチアップするための最高の知のアーカイブの一つ」と少しだけ思えるようになりました。 機械学習・ディープラーニング(AI)の分野では、無料で読める論文がたくさんありますし、コードが公開されているものも多く、(比較的)手元で再現実験しやすいのも良いですね。 いつもTwitterに流れている論文を適当に拾うことが多いのですが、それ以外の情報源をメモがてら個人的にまとめてみます。ガチ研究者ではないので、そういう方は近くの優秀な人に聞いてくださいね(そして、コメントとかで教えてください)。 arXiv 機械学習系では、最も有名かつ最大の論文アーカイブサイトです。機械学習系の論文を探すと、大体はここに行き着きます。 ar
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く