並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 120 件 / 318件

新着順 人気順

CUDAの検索結果81 - 120 件 / 318件

  • 安くなってきた中古ゲーミングノートPCを使いローカル生成AIのStable-Diffusion ForgeをCUDAでチューニングしてみた。FP8+LCM Turbo+HyperTileで3.8秒〜15.4秒/枚とそこそこ高速。CPU対比5倍速。古いGPUでもオススメ

    Kapper@Linuxガジェヲタ&異世界小説家&生成AI&電子工作大好き @kapper1224 という事で中古ゲーミングノートブックPC+CUDA+Stable-Diffusion Forge+FP8+LCM Turbo+HyperTileで1024x512が7.6秒/枚 Model Memory (MB) = 819.7106971740723 Minimal Inference Memory (MB) = 1024.0 贅沢を言わなければ世代遅れマシンでも十分使える。 CPUと比べて5倍速程度だけど pic.twitter.com/IDI9ICJq8Z 2024-03-24 11:19:13

      安くなってきた中古ゲーミングノートPCを使いローカル生成AIのStable-Diffusion ForgeをCUDAでチューニングしてみた。FP8+LCM Turbo+HyperTileで3.8秒〜15.4秒/枚とそこそこ高速。CPU対比5倍速。古いGPUでもオススメ
    • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第20回:MシリーズMacでもComfyUI+フロントUIが動く!ComflowySpaceの使い方(西川和久) | テクノエッジ TechnoEdge

      ComfyUI使ってみたいけど…。この連載では、これまで3回にわたってComfyUIのインストール、設定、カスタムNode、そしてWorkflowのことを書いてきた。記事を見て実際に動かして頂いているのなら嬉しい限りだ。 ただ「最新技術に即対応するので、やってみたいのは山々だけど、あのUIが何ともとっつき難い」と言う話をよく聞く。また「うちはMacなので…」との声も。 Macは写真や画像編集に使うことが多く、生成AI画像もMacで動かしたい。ただM1 / M2 / M3内蔵のGPUは内蔵のiGPUとしては速いのだが、流石に何万円もする外付けのdGPUには勝てない。結果無理に動かしても遅くストレスが溜まる。 この2つを何とかするのが、今回ご紹介するComflowyspace。見た目のとっつき難さは軽くフロントUIでデコレーションして改善したうえ、WindowsとmacOSに対応だ(Ubunt

        生成AIグラビアをグラビアカメラマンが作るとどうなる?第20回:MシリーズMacでもComfyUI+フロントUIが動く!ComflowySpaceの使い方(西川和久) | テクノエッジ TechnoEdge
      • LLM開発のための環境構築

        はじめに 株式会社Elithの大森一祥です。AIテックカンパニーの一員として、お客様の課題をAIを駆使して解決しています。 大規模言語モデル(LLM)が人間と匹敵する性能を発揮することもあり、弊社には多岐にわたるプロジェクトの依頼が寄せられています。最近は、情報漏洩のリスクを回避するため、独自のLLMの開発を希望されることが多いです。このような案件では、一般に公開されたモデル(ローカルLLM)を利用します。 ローカルLLMを活用して課題を解決する方法として、以下の4つが挙げられます。 プロンプトエンジニアリング:LLMに特定の出力を生成させるための入力文の工夫する手法 RAG:外部の文章データベースから、質問に類似した文章を取り出しLLMの入力として用いる手法 インストラクションチューニング:ユーザの指示に沿った出力を生成することを目的としたチューニング手法 継続事前学習:LLMモデルに対

          LLM開発のための環境構築
        • GaLore - 家庭用ハードウェアでの大規模モデルの学習|npaka


           GaLore: Advancing Large Model Training on Consumer-grade Hardware 1. GaLoreGaLoreNVIDIA RTX 4090GPULlama7B 2. AdamGaLore
            GaLore - 家庭用ハードウェアでの大規模モデルの学習|npaka
          • WSL2でSakana AIを試してみる|ngc-shj

            「進化的モデルマージにより日本語数学LLMとして構築したEvoLLM-JPは、数学のみならず、日本語の全般的な能力に長けている」らしいEvoLLM-JPを試してみます。 追記(2024/3/22) 10Bのモデルですが、torch_dtypeを"auto"からtorch.bfloat16に変更すると、推論のスピードが改善しました。 モデルEvoLLM-JPは、3種提供されています。今回は3つとも試します。 - 大規模言語モデル SakanaAI/EvoLLM-JP-v1-10B : MICROSOFT RESEARCH LICENSE TERMS SakanaAI/EvoLLM-JP-v1-7B :  MICROSOFT RESEARCH LICENSE TERMS SakanaAI/EvoLLM-JP-A-v1-7B : Apache License, Version 2.0 ※画像言語

              WSL2でSakana AIを試してみる|ngc-shj
            • 世界の株価を左右する"半導体の覇者"「エヌビディア」を知ったかぶりたい! - 経済・ビジネス - ニュース

              CEOのジェンスン・フアン氏。黒の革ジャンがトレードマーク。来日時は豚骨ラーメン店「九州じゃんがら」に行くという 2月22日に最高値を34年ぶりに更新した日経平均は、3月4日に史上初となる4万円の大台に乗った。同様に米国市場も、ほぼ同時期に史上最高値を記録している。 実は、この値動きは米国の半導体メーカー1社に引っ張られたものだといわれている。その立役者こそがエヌビディアだ。なぜ一介の半導体メーカーが、日米の巨大な株式市場を牽引するほどの存在になっているのか? ■時価総額はメタやアマゾンを凌駕! 【Q】そもそもエヌビディアってどんな会社? 【A】コンピューターに内蔵され、計算を高速に行なう装置である半導体。同社はその一種であるGPU(画像処理装置)を開発・販売している米国企業で、1993年に創業された。 2020年には半導体の覇者だったインテルの時価総額を抜き、今やマイクロソフト、アップル

                世界の株価を左右する"半導体の覇者"「エヌビディア」を知ったかぶりたい! - 経済・ビジネス - ニュース
              • Quanto: a pytorch quantization toolkit

                Quantization is a technique to reduce the computational and memory costs of evaluating Deep Learning Models by representing their weights and activations with low-precision data types like 8-bit integer (int8) instead of the usual 32-bit floating point (float32). Reducing the number of bits means the resulting model requires less memory storage, which is crucial for deploying Large Language Models

                  Quanto: a pytorch quantization toolkit
                • 自律型AIソフトウェアエンジニア「Devin」発表。課題から情報収集して環境構築・ビルド・デプロイまで | テクノエッジ TechnoEdge

                  ITジャーナリスト/Publickeyブロガー。IT系の雑誌編集者、オンラインメディア発行人を経て独立。2009年にPublickeyを開始しました。 AIスタートアップのCognitionは、自律型のAIソフトウェアエンジニア「Devin」を発表しました。 Devinは人間が課題を与えると、自律的に情報を参照し、コーディングやデバッグ、デプロイを行い、システム構築を実現するAIソフトウェアエンジニアだと説明されています。 Cognition AI CEOのScott Wu氏以下はデモ動画からのキャプチャです。 Devinは人間のソフトウェアエンジニアと同様に、自身のコンソール画面(右上)、コードエディタ(右下)、Webブラウザ(左下)を持っています(左上は人間とチャットでやり取りする領域)。 人間がプロンプトで何らかの課題を与えると、まず課題解決のためのプランを生成します。 今回、Dev

                    自律型AIソフトウェアエンジニア「Devin」発表。課題から情報収集して環境構築・ビルド・デプロイまで | テクノエッジ TechnoEdge
                  • PG-Strom v5.0 - KaiGaiの俺メモ


                      PG-Strom v5.0    PG-Strom v3.x 2018PG-Strom v2.0 GPU Volta TESLA V100CUDA9.2 PG-Strom HeteroDB20177 PG-Strom
                      PG-Strom v5.0 - KaiGaiの俺メモ
                    • 更新:Radeon RX7900XTX WindowsでStable Diffusion WebUIをZLUDAで動作させてみた。 - 自作ユーザーが解説するゲーミングPCガイド

                      イラストAI 更新:Radeon RX7900XTX WindowsでStable Diffusion WebUIをZLUDAで動作させてみた。 ※ 2024/03/13・・・バグフィックス版 全員差し替えしてください。 ※ 2024/03/13・・・Navi22/23(RX6750XT/6700/XT/RX6650XT/RX6600/XT)動作手順を追加 はじめに話題のZLUDAを使用して、RX7900XTXでWindowsで動作させてみました。 おそらく、Radeonを使用した中ではWindowsで最速だと思います。 RDNA3以外のRadeonでも動くと思いますが、機材が手元にないので動作確認できているのはRX7900XTXのみとなります。 自分のRadeonで使えなくても泣かないこと。 重要 当サイトのZLUDAに対するスタンス ZLUDAはライセンス違反の疑いがあるといわれていま

                        更新:Radeon RX7900XTX WindowsでStable Diffusion WebUIをZLUDAで動作させてみた。 - 自作ユーザーが解説するゲーミングPCガイド
                      • Dockerで構築する機械学習環境【2024年版】

                        Dockerを使った機械学習環境の構築方法 株式会社松尾研究所で働いているからあげ(@karaage0703)です。松尾研究所では、機械学習(ここでは、予測モデル、画像認識からLLMまで幅広く扱います)を使う多数のプロジェクトが走っています。プロジェクトの特性は多種多様なので、環境構築方法は様々なのですが、松尾研究所では、環境構築方法の1つとしてDockerを推奨していています。今回はDockerを使った機械学習環境の構築方法を紹介します。 松尾研究所の特にインターン生を想定した記事にはなりますが、他の組織、個人の方にも参考になる部分があるかと思いWebに広く公開させていただきます。 なぜDockerで機械学習環境を構築するのか? 具体的な手法に入る前に、まずはDockerで機械学習環境を構築する理由から説明したいと思います。説明が不要な方はここはスキップしてもOKです。 そのために、Do

                          Dockerで構築する機械学習環境【2024年版】
                        • 「GPU」でも「APU」でも勝負 AMDが目指す“NVIDIAとの違い”


                           AMD |  | CPU AIAIAdvanced Micro DevicesAMDGPUInstinct MI300AICTOAI PC  GPUAIAMD  AMDAI 3000
                            「GPU」でも「APU」でも勝負 AMDが目指す“NVIDIAとの違い”
                          • 画像・PDF・TXT・メールなどの中身を読み取って検索できるようにするオープンソースのドキュメント整理ツール「Teedy」レビュー

                            Teedyはさまざまな種類のファイルの中身を読み取って検索できる状態にしてくれるドキュメント整理ツールです。受信したメールを自動で取り込む設定もできるとのことなので、実際にセルフホストして使い勝手を確かめてみました。 sismics/docs: Lightweight document management system packed with all the features you can expect from big expensive solutions https://github.com/sismics/docs TeedyのインストールにDockerを利用するので、下記のリンクから自分の環境に合った方法でDockerをインストールします。 Install Docker Engine | Docker Documentation https://docs.docker.com

                              画像・PDF・TXT・メールなどの中身を読み取って検索できるようにするオープンソースのドキュメント整理ツール「Teedy」レビュー
                            • Training great LLMs entirely from ground up in the wilderness as a startup — Yi Tay

                              Training great LLMs entirely from ground up in the wilderness as a startup Given that we’ve successfully trained pretty strong multimodal language models at Reka, many people have been particularly curious about the experiences of building infrastructure and training large language & multimodal models from scratch from a completely clean slate. I complain a lot about external (outside Google) infr

                                Training great LLMs entirely from ground up in the wilderness as a startup — Yi Tay
                              • NVIDIAがCUDAを他のハードウェア上で実行することを禁止

                                NVIDIAが、GPU向けのコンピューティングプラットフォームとして提供している「CUDA」のソフトウェア利用許諾契約(EULA)の中で、翻訳レイヤーを通じてNVIDIA以外のハードウェアプラットフォームで実行することを禁止していることがわかりました。もともとこの条項はNVIDIAのサイト上で公開されているオンライン版のEULAには含まれていましたが、インストールしたCUDAのドキュメントにも含まれるようになったとのことです。 License Agreement for NVIDIA Software Development Kits — EULA https://docs.nvidia.com/cuda/eula/index.html Nvidia bans using translation layers for CUDA software — previously the prohi

                                  NVIDIAがCUDAを他のハードウェア上で実行することを禁止
                                • 大規模言語モデルをフルスクラッチする練習 (環境構築ー前処理ー事前学習ーファインチューニングー評価まで)|Kan Hatakeyama

                                  はじめに以下のオープンなプロジェクトの一環で、大規模言語モデルをフルスクラッチで作る練習をします。24年3月現在、協力者も募集中です。 リポジトリ当該プロジェクトの標準コードが公開※されたので、それを走らせてみます。 ※24/3/5時点で、まだレポジトリ内に、工事中の箇所が多々、あります。 このリポ上では、事前学習ー事後学習ー評価まで、一気通貫(?)したパイプラインが提供されています※。 0. 環境構築プロジェクトの本番環境はクラウドですが、今回は手持ちのubuntuを使います。 Dockerはお手軽な一方で、スパコン上で使うと、どうやら速度が落ちるらしいとの噂を聞いたので、condaで作ります(とはいえ、pipしか使わないので、pyenvでもいけると思います)。 必要なマシン適当なlinux: 例えばUbuntu 22.04.3 LTS GPU: 20 GBくらいは欲しいかも? ディスク

                                    大規模言語モデルをフルスクラッチする練習 (環境構築ー前処理ー事前学習ーファインチューニングー評価まで)|Kan Hatakeyama
                                  • モノレポの Python バージョンを 3.9 から 3.11 に上げる - CADDi Tech Blog

                                    はじめに AI Team MLOps Engineer の西原です。前回は kubeflow pipeline(kfp)のローカル環境での実行について Tech Blog を書きました。kfp は 2024 年に入ってからローカル環境の実行以外にも嬉しいアップデートがあったのでそれに少し絡めて今回の取り組みを紹介しようと思います。 今回の取り組みは、モノレポで使っている Python の最低バージョンを 3.9 から 3.11 に上げるというものです。なぜ、バージョンを上げたのか、上げる際の障壁とその対応を紹介しようと思います。 はじめに なぜ Python バージョンを上げたのか パッケージ更新を頻繁にする理由 パッケージの更新ができなくなった torchserve と各ソフトウェアのバージョン Python のバージョンをどこまで上げるか torchserve のコンテナイメージを自分

                                      モノレポの Python バージョンを 3.9 から 3.11 に上げる - CADDi Tech Blog
                                    • 画像生成AIモデルを使ってGPUの速度を比べてみた | IIJ Engineers Blog

                                      地方拠点の一つ、九州支社に所属しています。サーバ・ストレージを中心としたSI業務に携わってましたが、現在は技術探索・深堀業務を中心に対応しています。 2018年に難病を患ったことにより、定期的に入退院を繰り返しつつ、2023年には男性更年期障害の発症をきっかけに、トランスジェンダーとしての道を歩み始めてます。 我が課に検証マシンが入りまして それまでGeForce RTX 3060で細々とやってた検証が少しばかりやれることが増えてきまして。 そしたらよりやれることを増やしたくなるのがエンヂニヤの性・・・・・・・・・ってやつではないでせうか? メーカー製の製品をおとなしく使う・・・・訳がなく、自前だったり社内で暇してるGPU等をかき集めたりしながら、色々検証内容としてやれることを増やしていこうとしていた時の話です。 デバイスもそこそこに増えてきて、まぁやっぱり色々検証してみたいんですね、これ

                                        画像生成AIモデルを使ってGPUの速度を比べてみた | IIJ Engineers Blog
                                      • Neural Audio Codec を用いた大規模配信文字起こしシステムの構築 - Mirrativ Tech Blog

                                        こんにちは ハタ です。 最近Mirrativ上に構築した配信の文字起こしシステムを紹介したいなと思います 音声からの文字起こしは、各社SaaSでAPI提供されているものがあると思いますが、今回紹介するものはセルフホスト型(自前のGPUマシンを使う)になります 構築していく上で色々試行錯誤したのでそれが紹介できればなと思っています どんなものを作ったか 前提知識: 配信基盤 前提知識: Unix Domain Socket Live Recorder Archiver DS Filter VAD Filter NAC / Compress Transcriber NAC / Decompress Speach To Text コンテナイメージ まとめ We are hiring! どんなものを作ったか 今回作ったものは Mirrativで配信されるすべての音声を対象に文字起こしを行う シス

                                          Neural Audio Codec を用いた大規模配信文字起こしシステムの構築 - Mirrativ Tech Blog
                                        • dlshogiのPyTorch Lightning対応 - TadaoYamaokaの開発日記

                                          dlshogiの学習は、PyTorchを使用して、モデルの訓練処理を独自に実装していた。 マルチGPUによる分散学習に対応させようと考えているが、独自に実装するより、PyTorch lightningに対応させた方が実装が楽になるため、dlshogiをPyTorch Lightningに対応させたいと考えている。 まずは、訓練の基本部分の実装を行った。 PyTorch Lightning CLI ボイラープレートをできるだけ削除するため、PyTorch Lightning CLIを使用して実装する。 PyTorch Lightning CLIを使用すると、コマンド引数のパース処理など含めて自動で行ってくれる。 起動部分の処理は以下のように記述するだけでよい。 def main(): LightningCLI(Model, DataModule) if __name__ == "__main

                                            dlshogiのPyTorch Lightning対応 - TadaoYamaokaの開発日記
                                          • Switch 2、価格は「6万円以上」との試算 | Gadget Gate

                                            Image:Pe3k/Shutterstock.com 最近にわかにNintendo Switchの後継モデル、通称「スイッチ2」の発表・発売時期に関する噂が相次いでいる。海外メディアEurogamerなど複数の情報源が2025年初頭に発売説を唱えた直後に、日経新聞が「2025年3月にも発売へ」と報じていた。 そんななか、スイッチ2の価格が399ドル~499ドル(約6万円~7万5000円)になる可能性が高いとの予想が報じられている。 もちろん任天堂はスイッチ2の存在を公式に認めていないが、その仕様に関しては多くのリーク情報や推測が届けられてきた。 ざっくりまとめれば、NVIDIAの未発表SoC「T239」(車載用チップTegra Orin=T234のカスタム版)を搭載。NVIDIAのAmpereアーキテクチャを採用し、1280基のCUDAコアを内蔵、サムスンの8nmプロセスで製造するといっ

                                              Switch 2、価格は「6万円以上」との試算 | Gadget Gate
                                            • 既存日本語LLMをBitNetで置き換えて実行してみた|はち


                                              BitNet1bitLLM  LLM1FP16BF16float1{-1, 0, 1} 使 3B paramsLlama  "BitNet: Scaling 1-bit Transformers for Large Language Models"1{-1, 1}{-1, 0, 1}"The Era of 1
                                                既存日本語LLMをBitNetで置き換えて実行してみた|はち
                                              • NVIDIAが外出先でもローカルでAIをフル活用できるノートPC向けGPU「RTX 500/1000 Ada Generation」を発表

                                                2024年2月26日からスペインのバルセロナで開催されているテクノロジー見本市・MWC Barcelona 2024で、NVIDIAが「Ada Lovelace」アーキテクチャを採用したモバイルGPUである「RTX 500 Ada Generation」と「RTX 1000 Ada Generation」を発表しました。 NVIDIA RTX 500 and 1000 Professional Ada Generation Laptop GPUs Drive AI-Enhanced Workflows From Anywhere | NVIDIA Blog https://blogs.nvidia.com/blog/rtx-ada-ai-workflows/ Nvidia talks up local AI with RTX 500, 1000 Ada launch • The Regis

                                                  NVIDIAが外出先でもローカルでAIをフル活用できるノートPC向けGPU「RTX 500/1000 Ada Generation」を発表
                                                • NTT and Red Hat Fuel AI Analysis at the Edge with IOWN Technologies

                                                  As part of the Innovative Optical and Wireless Network (IOWN) initiative, NTT Corporation (NTT) and Red Hat, Inc., in collaboration with NVIDIA and Fujitsu, have jointly developed a solution to enhance and extend the potential for real-time artificial intelligence (AI) data analysis at the edge. Using technologies developed by the IOWN Global Forum and built on the foundation of Red Hat OpenShift,

                                                    NTT and Red Hat Fuel AI Analysis at the Edge with IOWN Technologies
                                                  • Ultimate guide to optimizing Stable Diffusion XL

                                                    IntroductionIn this article we're going to optimize Stable Diffusion XL, both to use the least amount of memory possible and to obtain maximum performance and generate images faster. We will be able to generate images with SDXL using only 4 GB of memory, so it will be possible to use a low-end graphics card. We're going to use the diffusers library from Hugging Face since this blog is scripting/de

                                                      Ultimate guide to optimizing Stable Diffusion XL
                                                    • 郊外型データセンタ活用・省電力リアルタイムAI分析技術を実証~IOWN技術の活用によりリモート拠点上でのAI分析の遅延と消費電力を大幅に削減~ | ニュースリリース | NTT

                                                      日本電信電話株式会社(本社:東京都千代田区、代表取締役社長:島田 明、以下「NTT」)は、IOWN構想の一環として、Red Hat、NVIDIA、および富士通の協力のもと、IOWN技術を用いて郊外型データセンタを活用したリアルタイムArtificial Intelligence(AI)分析を省電力に実現する技術を開発しました。本AI分析基盤では、IOWNオールフォトニクス・ネットワーク(All-Photonics Network、以下、APN)、およびIOWNデータセントリック基盤(Data Centric Infrastructure、以下、DCI)のデータ処理高速化手法を活用しています。本実証実験を通じ、郊外型データセンタによるAI分析において、従来の方式と比べて、遅延時間(センサ設置拠点でデータを受信してから郊外型データセンタでAI分析を完了するまでの時間)を、最大で60%削減できる

                                                        郊外型データセンタ活用・省電力リアルタイムAI分析技術を実証~IOWN技術の活用によりリモート拠点上でのAI分析の遅延と消費電力を大幅に削減~ | ニュースリリース | NTT
                                                      • Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判

                                                        AMDのAthlonやZenマイクロアーキテクチャ、Apple A4などさまざまなチップの開発に携わったアーキテクトでエンジニアのジム・ケラー氏が、X(旧Twitter)で「NVIDIAのCUDAは沼です」と批判したことが報じられています。 Jim Keller criticizes Nvidia's CUDA, x86 — 'Cuda’s a swamp, not a moat. x86 was a swamp too' | Tom's Hardware https://www.tomshardware.com/tech-industry/artificial-intelligence/jim-keller-criticizes-nvidias-cuda-and-x86-cudas-a-swamp-not-a-moat-x86-was-a-swamp-too ケラー氏の経歴は以下の記事を

                                                          Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判
                                                        • [YOLOv8 Instance Segmentation] 「きのこの山」に潜伏する「たけのこの里」を機械学習で見つけてみました 〜データセットは、Segment Anything Modelで自動的に生成されています〜 | DevelopersIO

                                                          [YOLOv8 Instance Segmentation] 「きのこの山」に潜伏する「たけのこの里」を機械学習で見つけてみました 〜データセットは、Segment Anything Modelで自動的に生成されています〜 1 はじめに CX事業本部製造ビジネステクノロジー部の平内(SIN)です。 YOLOv8は、イメージ分類・物体検出・セグメンテーション・骨格検出などに対応していますが、今回は、セグメンテーションモデルをファインチューニングして、「きのこの山」と「たけのこの里」を検出してみました。 最初に、動作している様子をご確認下さい。比較的に精度高くセグメンテーション出来ていると思います。 2 データセット作成 セグメンテーションモデルを学習する為のデータは、下記のように、対象物の輪郭座標が必要であり、これを大量に作成するのは、結構な膨大な作業量になってしまいます。 そこで、この作業

                                                            [YOLOv8 Instance Segmentation] 「きのこの山」に潜伏する「たけのこの里」を機械学習で見つけてみました 〜データセットは、Segment Anything Modelで自動的に生成されています〜 | DevelopersIO
                                                          • Stable Diffusion web UI (Forge) の個人的な設定メモ|まゆひら

                                                            Last update 2-18-2024 ※モデルのディレクトリを変更して統一する等もしているので、よければ参考にしてください。 ▼ 0. 本記事について0-1. 概要 現在使用しているAUTOMATIC1111氏のStable Diffusion web UI(以下AUTOMATIC1111版)と、Stable Diffusion WebUI Forge(以下Forge版)設定に関する個人的なメモです(Extensionの話は出てきません)。 別で、Stable Diffusion WebUI Forgeの導入記事もあります(難易度はAUTOMATIC1111 web UIと同程度)。 ▼ 1. ディレクトリ構成とバッチファイル バッチファイルのファイル名はお好みで変更してください。 1-1. ユーザーディレクトリ  コマンド プロンプトを開くとユーザーディレクトリから始まるため、ここ

                                                              Stable Diffusion web UI (Forge) の個人的な設定メモ|まゆひら
                                                            • karakuri-lm-70b-chatをOpenAI互換のローカルサーバとして動かしてみた - Qiita

                                                              はじめに karakuri-lm-70b-chatの4bit量子版ggufをローカルPCで動かしてみた時のメモです。 json format出力が出来たり、少し複雑なsystem promptも効いてくれて良いです。 KARAKURI LM 70B Chat v0.1 とは Llama 2 70Bベースの継続事前学習&finetuneモデルで、現時点(2024/2/2)でMT-Bench-jpベンチマークにおいて日本語のオープンモデルの中で最高性能モデル。 デモサイトも用意されていて、簡単にお試しすることもできます。 KARAKURI LM を試す。すごい優秀。json fromat出力指定が通る。複雑めなsystem promptもしっかり効く。 (json formatしっかり返せるようになるとagent動かせるようになるですよ。とはいえ70bはうちのPCでは動かないけど...シクシク

                                                                karakuri-lm-70b-chatをOpenAI互換のローカルサーバとして動かしてみた - Qiita
                                                              • インテル Arcで画像生成系AI入門!設定方法とパフォーマンス検証でArc×生成AIを解説 (1/3)

                                                                ASRock製のインテル Arc搭載ビデオカードを使って、画像生成系AIのパフォーマンスを検証。環境設定の仕方から解説する 「インテル Arc Aシリーズ」(以下、インテル Arc)は2022年の発売以降、ドライバーのアップデートを繰り返し、性能を高めている。昨年末に掲出した、ASRock製インテル Arc搭載ビデオカードの検証記事(https://ascii.jp/elem/000/004/177/4177741/)では、ゲームにおいての性能アップも確認できた。 一方で、昨今のGPUはゲームを快適に遊ぶためだけのものではない。特に最近は、GPUメーカー自身が画像生成系AIで自社のGPUが使えるかをアピールするようになった。この分野ではCUDAが利用できるNVIDIAのGeForceの情報量が多いが、インテル Arcではその辺りのパフォーマンスはどうなのだろうか? ASRockの「AI Q

                                                                  インテル Arcで画像生成系AI入門!設定方法とパフォーマンス検証でArc×生成AIを解説 (1/3)
                                                                • 画像から3次元復元しよう!バンドル調整をpythonで実装してみる - Qiita

                                                                  はじめに バンドル調整(Bundle Adjustment)は、複数のカメラからの画像データを使用して、カメラの位置と姿勢と三次元点の位置を同時に最適化する手法です。最初の論文は、1958年にD. C. Brownによって提案された1、かなり長い歴史を持つ技術です。 当時はアメリカ空軍が航空写真からの環境復元するための研究でしたが、近年では、visual-SLAMやSfMの普及とともに、より身近なところで使われるようになりました。 有名なvisual-SLAM(例:orb-slam2やVINS-Mono)は、ceresやgtsam、g2oなどのグラフ最適化ライブラリを利用してバンドル調整問題を解いています。しかし、内部の原理をちゃんと理解しないと、課題の改善ができない、独自の研究や発展につながらない可能性が高いです。 この記事では、初心者に向けバンドル調整の理論の紹介と式の導出を行いながら

                                                                    画像から3次元復元しよう!バンドル調整をpythonで実装してみる - Qiita
                                                                  • PFNから数えて計4年4ヶ月勤めたPreferred Roboticsを退職して、転職活動しながらクロスコンパイル環境を作ったりしています - 衝撃のわからなさ

                                                                    はじめに 退職しました。 カチャカというロボットに主に組み込みまわりで関わっていて、発売されて満足しました。 量産ロボットに携わるという夢が1つも叶いました。 2ヶ月の有休期間中に、この間に作成したmimic-crossというクロスコンパイル用のDocker imageを 整備していろいろな人に使ってもらえるようにできればと考えています。 この記事ではなぜこのツールを開発した背景を振り返りながら、課題と共に紹介します。 背景 PFN入社からしてすぐ、後にカチャカとなるプロジェクトで ARM CPUボードへのインテグが始まろうとしており、 全体SlackでYoctoを知っている人がいないかという呼びかけがされてました。 私自身はPFVMという自社のNN実行フレームワークを作成するチームに配属されましたが、 ロボットのチームがこのフレームワークを使う橋渡しのようなことをやってもらいたいと言われ

                                                                      PFNから数えて計4年4ヶ月勤めたPreferred Roboticsを退職して、転職活動しながらクロスコンパイル環境を作ったりしています - 衝撃のわからなさ
                                                                    • 画像の要素を分析してpromptを出力するだけのソフト「ImageAnalyzer」公開|とりにく

                                                                      2024/03/20追記: SmilingWolf/wd-swinv2-tagger-v3に対応。 対応GPUの場合、CUDA対応(非対応環境の場合はCPU) また複数ファイル解析後、dump.jsonを吐き出すことで、画像ファイルの構成が変わっていない限り、解析結果を使いまわして、Additional tagsやExclude tagを編集できるようにしました。 タイトル通りです。 同じことはstable-diffusion-webuiの拡張taggerでもできるのですが、prompt分析だけのシンプルなGUIソフトがあってもいいかなと思って作ってみました。 機械学習のための補助以外にも、自分の絵の要素を客観的に分析する道具にも使えないかと思ってみたり。 導入方法①以下のリンクからImageAnalyzer.zipをGoogleドライブからDLする。 https://drive.goog

                                                                        画像の要素を分析してpromptを出力するだけのソフト「ImageAnalyzer」公開|とりにく
                                                                      • Google Colab で Stable Cascade を試す|npaka

                                                                        「Google Colab」で「Stable Cascade」を試したので、まとめました。 【注意】Google Colab Pro/Pro+のA100で動作確認しています。 1. Stable Cascade「Stable Cascade」は、「Würstchen」ーキテクチャをベースにした新しいテキスト画像変換モデルです。3段階のアプローチにより、一般消費者向けハードウェアでの学習とファインチューニングが簡単にできます。非商用利用のみを許可する非商用ライセンスの下でリリースされます。 ファインチューニング、ControlNet、LoRA学習用のスクリプトを Stability AI の GitHub で公開しています。 2. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) Colabのノートブックを開き、メニュー「編集 → ノートブックの設定」で「GPU」の「A1

                                                                          Google Colab で Stable Cascade を試す|npaka
                                                                        • Stable Cascadeを触ってみつつ、サンプルコードを改良してVRAM消費を抑える|hakomikan

                                                                          StabilityAIから新しいText to ImageモデルStable Cascadeが発表されました。XLの正式公開が2023年7月26日なので半年しか経ってません。そして全く互換性がありません。XLのブーム始まったばかりなのに早いって。 というわけで生成してみます。一応生成までの道のりを記しておきます。 1.ローカルへのインストール コマンドプロンプトで適当なフォルダに赴き、git cloneを実行。gitが入ってない場合はgithubからzipをダウンロードして解凍でも大丈夫でしょう。 git clone https://github.com/Stability-AI/StableCascade2.必須モジュールのインストール CD で新しくできたフォルダに入り pip install -r requirements.txtしばし待つ。 3.モデルのダウンロード 以下は必須 e

                                                                            Stable Cascadeを触ってみつつ、サンプルコードを改良してVRAM消費を抑える|hakomikan
                                                                          • NVIDIAがプロ向けのエントリーモデル「NVIDIA RTX 2000 Ada」発表 補助電源不要

                                                                            NVIDIAは2月12日(米国太平洋時間)、デスクトップワークステーション向けグラフィックスカード「NVIDIA RTX 2000 Ada」を発表した。菱洋エレクトロを始めとする販売代理店を通して取り扱われており、主要なPCメーカーから搭載製品も発売される予定だ。 NVIDIA RTX 2000 Adaはエントリー向けのモデルで、CUDAコア(2816基)/第3世代RTコア(22基)/第4世代Tensorコア(88基)と、16GBのグラフィックスメモリ(GDDR6)を搭載する。最大消費電力は70Wと省電力設計で、補助電源は不要だ。 バスインタフェースはPCI Express 4.0 x16対応で、4基のMini DisplayPort 1.4a端子を備える。 関連記事 NVIDIAがプロ向けグラボ「RTX Ada」のミドルレンジモデルを発表 1250ドルから NVIDIAのデスクトップワー

                                                                              NVIDIAがプロ向けのエントリーモデル「NVIDIA RTX 2000 Ada」発表 補助電源不要
                                                                            • 「NVIDIA Chat with RTX」公開 - 手元のRTX 30/40 GPUでローカル動作するNVIDIAお手製AIチャットボット

                                                                              「NVIDIA Chat with RTX」公開 - 手元のRTX 30/40 GPUでローカル動作するNVIDIAお手製AIチャットボット 米NVIDIAは2月13日(現地時間)、同社製グラフィックス向けのソフトウェア「NVIDIA Chat with RTX」を公開した。すでにデモ版としてリリースされており、ダウンロードして使用可能。ただしLLMを用いる都合ファイルがかなり大きく、筆者の手元で確認したところ35.1GBのzipファイルをダウンロードする必要がある。 「NVIDIA Chat with RTX」公開 - 手元のRTX 30/40 GPUでローカル動作するNVIDIAお手製AIチャットボット NVIDIA GeForce RTXシリーズは強力なTensorコアを内蔵しており、さまざまなAI機能を利用可能。これまでNVIDIAは音声再生におけるノイズキャンセリングや動画再生に

                                                                                「NVIDIA Chat with RTX」公開 - 手元のRTX 30/40 GPUでローカル動作するNVIDIAお手製AIチャットボット
                                                                              • NVIDIAの「CUDA」とIntelのGPUをつなぐソフトウェア「ZLUDA」がAMD向けとして転身復活するも今後の開発は絶望的

                                                                                NVIDIAのコンピューティング向けGPU活用技術「CUDA」をIntel GPUで実行できるようにしたソフトウェア「ZLUDA」が復活しましたが、IntelではなくAMDのGPUで動作するよう改変が加えられていました。 AMD Quietly Funded A Drop-In CUDA Implementation Built On ROCm: It's Now Open-Source - Phoronix https://www.phoronix.com/review/radeon-cuda-zluda Software allows CUDA code to run on AMD and Intel GPUs without changes — ZLUDA is back but both companies ditched it, nixing future updates | T

                                                                                  NVIDIAの「CUDA」とIntelのGPUをつなぐソフトウェア「ZLUDA」がAMD向けとして転身復活するも今後の開発は絶望的
                                                                                • NVIDIAがAda Lovelaceアーキテクチャ採用のワークステーション向けGPU「NVIDIA RTX 2000 Ada Generation」を発表

                                                                                  現地時間2024年2月12日、NVIDIAが小型ワークステーション向けGPUとして「NVIDIA RTX 2000 Ada Generation」を発表しました。NVIDIA RTX 2000 Ada Genrationはアーキテクチャに「Ada Lovelaceアーキテクチャ」を採用することで、前モデルの「NVIDIA RTX A2000」と比較して最大1.6倍ものパフォーマンスを発揮することが可能とされています。 NVIDIA RTX 2000 Ada Generation GPU Brings Performance, Versatility for Next Era of AI-Accelerated Design and Visualization | NVIDIA Blog https://blogs.nvidia.com/blog/rtx-2000-ada/ nvidia.c

                                                                                    NVIDIAがAda Lovelaceアーキテクチャ採用のワークステーション向けGPU「NVIDIA RTX 2000 Ada Generation」を発表