エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
7 usersがブックマーク
0
【ELYZA-japanese-Llama-2-70b】日本語特化モデル最大級の700億パラメーターLLMを使ってみた | WEEL
記事へのコメント0件
- 注目コメント
- 新着コメント
新着コメントはまだありません。
このエントリーにコメントしてみましょう。
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
いまの話題をアプリでチェック!
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【ELYZA-japanese-Llama-2-70b】日本語特化モデル最大級の700億パラメーターLLMを使ってみた | WEEL
WEELメディア事業部LLMライターのゆうやです。 2024年3月12日、ELYZA-japanese-Llama-2-7bなどの日本語...
WEELメディア事業部LLMライターのゆうやです。 2024年3月12日、ELYZA-japanese-Llama-2-7bなどの日本語特化LLMを開発してきたELYZA社が、最新の700億パラメータの大規模言語モデル (LLM) である﹁ELYZA-japanese-Llama-2-70b﹂を公開しました。 ︻お知らせ︼700億パラメータの日本語LLM﹁ELYZA-japanese-Llama-2-70b﹂を開発し、グローバルモデルに匹敵する性能を達成しました。デモサイトも同時に公開しています。 詳細は以下をクリックしてご覧ください。https://t.co/kw8euBuKz5 — ELYZA, Inc. (@ELYZA_inc) March 12, 2024 このモデルは、これまでのモデルと同様に、Meta社の﹁Llama2﹂をベースに、日本語の追加事前学習と事後学習を行い、Llam