![](https://cdn-ak-scissors.b.st-hatena.com/image/square/9984b093e732caba6e4099198d769a7650b101b6/height=288;version=1;width=512/https%3A%2F%2Fimage.itmedia.co.jp%2Fnews%2Farticles%2F2303%2F18%2Fcover_news059.jpg)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント27件
- 注目コメント
- 新着コメント
![hhungry hhungry](https://cdn.profile-image.st-hatena.com/users/hhungry/profile.png)
hhungry
githubに「Alpaca LoRA」「Stanford Alpaca」「davinci-003」の出力比較が載ってる https://github.com/tloen/alpaca-lora
![hinonono hinonono](https://cdn.profile-image.st-hatena.com/users/hinonono/profile.png)
hinonono
ロボットで物理的なトラブルに繋がるのは怖いし、慎重になるのも仕方ないか。最先端ってのは、機関車トーマス(の元ネタ)みたくトラブルが相次ぐもので、ITが例外的にネット等に収まり比較的安全だっただけだし。
![nilab nilab](https://cdn.profile-image.st-hatena.com/users/nilab/profile.png)
nilab
「Raspberry Pi上で動かせる、GPT-3相当の大規模言語モデル(LLM)「Alpaca LoRA」がGitHub上で公開された。米MetaのLLM「LLaMA」の派生モデル「Stanford Alpaca」を再現できるという」
![urtz urtz](https://cdn.profile-image.st-hatena.com/users/urtz/profile.png)
urtz
GPT4レベルのAIがモバイルで動くようになるとロボットに組み込めば擬似的な人間、アンドロイドが作れる。リモートでいいならBoston Dainamicsのロボット達に組み込めばすぐ出来そう。
![hhungry hhungry](https://cdn.profile-image.st-hatena.com/users/hhungry/profile.png)
hhungry
githubに「Alpaca LoRA」「Stanford Alpaca」「davinci-003」の出力比較が載ってる https://github.com/tloen/alpaca-lora
![dec123456789 dec123456789](https://cdn.profile-image.st-hatena.com/users/dec123456789/profile.png)
dec123456789
この手の記事でGPT-3相当って言うけどさ、GPT-3のどのレベルに相当するのか書いてほしい。精度の低いGPT-3(Ada)から最も精度の高いGPT-3(Davinci)まであるわけで。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
いまの話題をアプリでチェック!
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ラズパイで動く大規模言語モデルがGitHubで公開 性能は“GPT-3相当”、Metaの「LLaMA」派生
LLaMAは米Metaが独自開発した大規模言語モデル。LLM分野の研究推進を支援するため、研究者向けに2月にリ...
LLaMAは米Metaが独自開発した大規模言語モデル。LLM分野の研究推進を支援するため、研究者向けに2月にリリースした。大規模インフラを利用できない研究者のために小規模ながら性能の高いことが特徴で、7B︵=70億︶、13B、33B、65Bの4種類のパラメーターを用意している。13Bモデルはベンチマークで米OpenAIのLLM﹁GPT-3﹂を上回るという。 米スタンフォード大学は、LLaMAの7Bモデルを派生させ独自のLLM﹁Stanford Alpaca﹂を開発。このモデルは研究や学術目的でのみ利用でき、娯楽や商用での利用は禁止している。Alpaca LoRAでは、Stanford Alpacaが生成するトークン︵単語列︶を再現できるという。 関連記事 Meta、独自大規模言語モデル︵LLM︶の﹁LLaMA﹂を限定リリース Metaは独自の大規模言語モデル﹁LLaMA﹂︵Large La
2023/03/18 リンク