![ローカルLLMに小説を書いてもらう v2|Kohya S.](https://cdn-ak-scissors.b.st-hatena.com/image/square/f052921dca17c508251614aaa42a07c4ad2a5526/height=288;version=1;width=512/https%3A%2F%2Fd2l930y2yx77uc.cloudfront.net%2Fproduction%2Fsocial_images%2Facd291d58190fb9fe6648b50af94a41eeeeea52f.png)
High-fidelity Virtual Try-on
はじめに Huggingfaceにある日本語でfinetuneしたモデルでwhisper.cppを使えないかなと思い,試した結果を載せていきます. 結論から言うと,whisper.cpp/models にあるREADMEにhuggingfaceのモデルを使用する場合の流れが書いてあるので,それに従います. 1. モデルの用意 今回は以下のモデルを使用したいと思います. モデルによっては,git-lftが必要になるかもしれません. pythonのライブラリ依存としては,pytorchとtransformersがインストールされていれば満たしていると思います. $ mkdir model $ git clone https://github.com/ggerganov/whisper.cpp.git repo/whisper-cpp $ cd whisper-cpp && make && cd
Intended Uses Primary use cases The model is intended for commercial and research use in English. The model provides uses for applications which require memory/compute constrained environments latency bound scenarios strong reasoning (especially math and logic) long context Our model is designed to accelerate research on language and multimodal models, for use as a building block for generative AI
音声入力についてはまだキーボード入力?macOS Sonomaで強化された「音声入力」を活用しよう!が詳しい。 音声読み上げについては、普通にGUIでできるほか、コマンド派には say コマンドが便利である。say "Hello world" などとすれば読み上げてくれる。say -v '?' で声の一覧が出るので say -v Alex "Hello world" のように指定できる。GUIではシステム設定→アクセシビリティ→読み上げコンテンツと連動している。システムの声→声を管理…で追加できる。 音声ファイルはGUIのほか afplay コマンドでも再生できる。 Macのシステム音を別のアプリに入力したり録音したりするには、入力・出力の両方に指定できるオーディオループバックデバイス(仮想デバイス)が便利である。私はBlackHoleを使っている。brew install blackho
先日、日本で発売されたRaspberry Pi 5 (メモリ4GB)が届いたので、流行りのLLMを動かしてみました。動作の様子は次のツイートに掲載しています。 ニューヨークにあるエンパイアステートビルの説明をしてくれています。 用いたOSは、2023-12-05にリリースされたRaspberry Pi OS (64-bit) with Desktopです。 Raspberry Pi Imagerを用いてSDカードにイメージを書き込み起動しました。 TinyLlamaの環境準備 まずターミナル上で以下のコマンドを実行して、Hugging FaceのサイトからTinyLlamaのモデルをダウンロードしてきます。操作は/home/pi/直下で行っています。 wget https://huggingface.co/TheBloke/TinyLlama-1.1B-Chat-v1.0-GGUF/res
はじめに Turingアドベントカレンダー17日目です!今日は Research チームの柏谷が担当します。 Research チームでは、LLMによる完全自動運転を実現するための技術開発を行っています。その中で重要な技術の1つが量子化です。量子化によって少ビットでパラメータを表現できれば、LLM の膨大なパラメータのデータ圧縮が可能となります。量子化実装はいろいろと考えられますが、今回は実装にアクセス可能な llama.cpp とその量子化技術について見ていきましょう! llama.cpp とは Georgi Gerganov さんが作った PC の CPU だけで LLM が動くプラットフォームです。その名の通り Llama, Llama2 が動くというだけでなく Bloom, StableLM などいくつかの LLM がサポートされています。LLM は従来、データセンターで大量のGP
この記事は CyberAgent Developers Advent Calendar 2023 19日目の記事です。 本日はメディア統括本部 Data Science Center の山本が担当します。 サイバーエージェントではAzure OpenAI ServiceやGoogle CloudのVertex AIなど様々なクラウドサービスのプラットフォームを利用したコンテンツ生成のPoC作成やそれを発展させた形での実サービスへの展開を行なっております。 このようなプラットフォームは気軽にやりたいことを試せる点では非常に便利ではあります。 一方、APIリクエストへの即応性やコスト等々の観点で、画像生成や言語生成のモデルを、用意したマシンインスタンスに展開して推論を行いたい状況も存在します。 このとき問題になるのはマシンインスタンスのスペックです。 高性能なGPUが載っていて、CPU、メモリ
LINEから36億(3.6B)パラメータの大規模言語モデル(LLM)が公開されたので早速遊んでみた。正確には遊んだのは昨日のデイリーAIニュースなのだが、面白かったのでこちらにも転載する。 細かいやり方は大先生のページを参照のこと。 例によってこんな関数を書いた def line(prompt): # 推論の実行 input_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt") tokens = model.generate( input_ids.to(device=model.device), min_length=50, max_length=300, temperature=1.0, do_sample=True, pad_token_id=tokenizer.pad_token_i
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く