並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 1422件

新着順 人気順

CUDAの検索結果1 - 40 件 / 1422件

  • Open SoraをGoogle Colabで動かして高速動画生成 - きしだのHatena

    さて、おうちで動画生成は難しいという結論になりました。 Open Soraを使っておうちのWindowsで動画生成する - きしだのHatena ということで、GPUサーバー借りてやるのがいいのではと、Google Colabで試してみました。それなりに動画が生成できたので、末尾にいろいろ載せてます。 無償で使えるT4は16GBのGPUでOpen Soraは動かないので、課金が必要です。というか、24GBのL4でもout of memoryだったので、40GBのA100が必要です。 ガチャがんばろう。 最初にネタバレですが、セットアップだけで5コンピューティングユニットくらい消費します。 インストール CUDAが12.2なので、12.1にダウングレードする必要があります。 NVIDIAのサイトのスクリプトだと「最新は12.5やで」みたいなメッセージを出して12.5をインストールしてしまうの

      Open SoraをGoogle Colabで動かして高速動画生成 - きしだのHatena
    • GitHub - NVIDIA/multi-gpu-programming-models: Examples demonstrating available options to program multiple GPUs in a single node or a cluster

      This project implements the well known multi GPU Jacobi solver with different multi GPU Programming Models: single_threaded_copy Single Threaded using cudaMemcpy for inter GPU communication multi_threaded_copy Multi Threaded with OpenMP using cudaMemcpy for inter GPU communication multi_threaded_copy_overlap Multi Threaded with OpenMP using cudaMemcpy for itner GPU communication with overlapping c

        GitHub - NVIDIA/multi-gpu-programming-models: Examples demonstrating available options to program multiple GPUs in a single node or a cluster
      • grapevine-AI/gemma-2-27b-it-gguf · Hugging Face

        What is this? Googleの言語モデルgemma-2-27b-itをGGUFフォーマットに変換したものです。 imatrix dataset 日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。 なお、謎のエラー「GGML_ASSERT: D:\a\llama.cpp\llama.cpp\ggml\src\ggml-cuda.cu:1257: to_fp32_cuda != nullptr」を回避するため、imatrixの算出においてはf16精度のモデルを使用しました。 Chat template <start_of_turn>user ここにpromptを書きます<end_of_turn> <start_of_turn>model Note llama.cpp-b3266以降でのみご

          grapevine-AI/gemma-2-27b-it-gguf · Hugging Face
        • IC-Lightを使用して人物画像のリライティングを行う

          ポートレートの背景置換と照明の調整を行いリアルな合成写真を生成することができるIC-Lightについて紹介します。 実行環境 公式のインストール方法とForgeでの利用方法の2つを紹介します。実行時の環境は以下になります。 OSWindows11 23H2IC-Light93654060598069b8a6b481bf24057cb015ea9e93(ハッシュ)SD Forge IC Light757d4304bc3e57356c0edc2efbc5d0ae51e07f97(ハッシュ) ソフトウェア要件 公式のインストール方法ではインストールする前に必要なソフトがあります。 Git Gitは分散型バージョン管理システムです。GitHubのリポジトリ管理に使用します。 Git – Downloading Package 64-bit Git for Windows Setup.をダウンロード

            IC-Lightを使用して人物画像のリライティングを行う
          • IC-Light導入手順書|BD

            この記事では、Windows11環境へのIC-Lightプロジェクトの初回セットアップからデモアプリケーションの起動、2回目以降の簡単な起動方法までを解説します。 IC-Lightってなに?ControlNetの作者が作った新ツールです! すでにある画像の照明の調整…だけでなく背景の再生成などもできます! Pythonの仮想環境が利用できる前提です。 (StableDiffusionなどを利用している場合はおそらく入ってると思います) Nvidiaのグラボ前提です。 1. 初回セットアップターミナルの起動1.ターミナルを起動 エクスプローラーでインストールしたいフォルダを開いて、「右クリック」→「ターミナルで開く」でターミナルを起動しましょう。 ターミナル画面リポジトリのクローン2.GitHubからリポジトリをクローン 以下のコマンドでIC-Lightプロジェクトをローカルにクローンします

              IC-Light導入手順書|BD
            • 猫耳とdiffusersで始めるStable Diffusion入門 - Qiita

              この記事は有名な画像生成AIであるStable Diffusionの使い方を説明する入門です。 画像生成AIに興味を持ったけどどうやって始めるからわからない人にとっておすすめです。簡単についていけるようにまず簡単な最低限のコードから例を見せてからどんどん説明を追加していきます。 はじめに きっかけ 私はずっと前から生成AIに興味を持って2018年の時にDCGANに挑戦したこともあって、ここで記事も書いたのです。 DCGANを使ったら絵が描けない私でもある程度新しい絵が作れるようになって嬉しいことです。 しかしあの時のDCGANでは満足できそうな画像が作れなくて限界を感じてしまいました。実用レベルはまだまだでした。 当時はあれで精一杯だったのですが、技術の発達は本当に速いものです。あれから時間が経って2022年になって漸くStable Diffusionが現れました。 これを使ったら本物のイ

                猫耳とdiffusersで始めるStable Diffusion入門 - Qiita
              • 技術解説 Egaroucid

                Tweet Egaroucid 技術解説 This page is only in Japanese. Translation by Google Translator is here. ここに書いた内容は初心者向きではありません。オセロAI初心者向け記事はこちらに書きました。 このページは日本語のみの雑多なオセロAI関連の技術文書です。のんびりと気が向いたときに書き足していきます。章立ての順番に意味はありません。読みたいところだけをぜひお読みください! 最終更新: 2024/06/10 目次探索アルゴリズムの選定(minimaxかMCTSか)評価関数の精度合法手数スコアを最大化するゲームである点完全読みの実装双方のアルゴリズムで実験してみた結果個人的な面白さ評価関数のモデル石評価パターンその他の特徴量精度と速さのトレードオフNNUE評価関数評価関数の学習データ中盤以降の学習データの作り方

                  技術解説 Egaroucid
                • ハーバードの学生とインテルの元副社長、NVIDIAの最新GPUより20倍速いAIチップを開発 : PCパーツまとめ

                  2024年06月29日00:01 ハーバードの学生とインテルの元副社長、NVIDIAの最新GPUより20倍速いAIチップを開発 カテゴリニュース 1: 名無しさん@涙目です。(北海道) [US] 2024/06/27(木) 13:25:44.98 ID:S+wPRdSq0 https://ascii.jp/elem/000/004/206/4206328/ 最大の特徴は、Transformerアーキテクチャーのみに特化した設計を採用したことだ。この専門化により、Sohuは汎用GPUと比べて大幅な性能向上を実現できると同社は主張する。 実際、NVIDIAの最新GPUと比べて20倍以上の処理速度を達成し、同時に消費電力を抑えられるという。これは、チップ上の面積を最大限に活用し、Transformerの処理に最適化された単一の大型コアを採用することで実現している。 ただし、その代償としてTran

                  • Lama-CleanerをSD A1111に統合してインストールする方法について - Qiita

                    Lama-Cleanerは、Adobe Fireflyにほぼ近い機能を持つ画像修正用のオープンソースAIで、今ではStable Diffusionによる画像生成と組み合わせて使用することが一つの定番といってもいいAIと言えます。 実際、SD A1111用の拡張機能(https://github.com/aka7774/sd_lama_cleaner )も公開されており、この拡張機能を使用すればA1111に統合した形で、Lama-Cleanerをインストールすることも可能です。 しかし、この拡張機能にはいくつか弱点もあります。 Lama-CleanerもまたSDと同様にPythoehを使用して動作するAIである為、当然CUDAを使用した方が高速に動作しますが、A1111用のLama-Cleanerはデフォルト設定ではCUDAを使用しないcpuモードで起動します。 (但し、拡張機能そのものの設

                      Lama-CleanerをSD A1111に統合してインストールする方法について - Qiita
                    • 【Mac】書き出しに35時間…うそだろ… - Archetype++

                      iPhone8 Plus 仕事の日。 例の仕事で撮影した17時間分の映像データを何とか使えるようなかたちに編集して20分程度に収めた。20倍速という怖ろしい方法を使って、ではあるが。でもそれでも通常だったら6時間程度分と、そこまで短くできたのは良かったと思う。1/3くらい削った。でも、それでも1/3かとも思う。これ、もう少し削れるんじゃ無いかなという気もしていて、それなりの編集環境があればやりやすいのかなとか思ってしまう。iMovieで映像ソース見るのって何かうまくいかないんだよね…サムネイル分の読み込みが地味に時間かかってしまうし。 それで、これから書き出していうやつで、通常のファイルとして書き出そうとしたら35時間と表示されたワケですよ。今回も。なんだよM2の実力はどうしたよ、と悪態をつきたくなるし実際についてしまったわけだが、それでどうにかなるワケでもない。そもそも、こんな使い方事態

                        【Mac】書き出しに35時間…うそだろ… - Archetype++
                      • 画像生成AI「Stable Diffusion」を「Copilot+ PC」で動かしたらどうなる?(窓の杜) - Yahoo!ニュース

                        ■ AIに強い「Copilot+PC」なら「Stable Diffusion」も快適? 【画像】「Stability Matrix」。複数のUI環境を簡単に共存できる PCのAI機能を拡充する「Copilot+ PC」。弊誌でもAI機能を試す記事を掲載している。画像生成AIなどいくつかの機能が使えて、PCの未来を体感できる内容になっている。 とはいえAIは「Copilot+ PC」の専売特許ではない。今回は画像生成AIが広く知られるのに大きな役割を果たした「Stable Diffusion」を、6月に発売されたばかりの「Copilot+ PC」で動かしたらどうなるのかを試してみることにした。 使用するのはMicrosoftからお借りした「Surface Laptop 13.8インチ(第7世代)」だ。スペックは下記のとおり。 今回お借りした機材は、CPUがSnapdragon X Elite

                          画像生成AI「Stable Diffusion」を「Copilot+ PC」で動かしたらどうなる?(窓の杜) - Yahoo!ニュース
                        • Style-Bert-VITS2ライブラリの使い方|しろ

                          Style-Bert-VITS2のライブラリを使ってテキストから音声に変換します。 Style-Bert-VITS2は、テキストを感情豊かな音声を生成するBert-VITS2 v2.1をもとに、感情や発話スタイルを強弱込みで自由に制御できるようにしたツールです。 実行環境 ・Windows 10 ・python 3.10.11 ・style-bert-vits2 2.5.0 環境構築仮想環境の作成venvモジュールを使用して仮想環境を作成します。.venvは仮想環境のディレクトリ名です。 python -m venv .venv作成した仮想環境を有効化 .venv\Scripts\activate環境が有効かされると、コマンドプロンプトが以下の様に変更されます。(.venvの部分が仮想環境名を表しています) (.venv) $ ライブラリのインストールstyle-bert-vits2ライブ

                            Style-Bert-VITS2ライブラリの使い方|しろ
                          • エヌビディア一強が崩れる可能性も 米中共同で開発が進む「大規模言語モデル」の革命的な進化 | マネーポストWEB

                            米国財務省は6月21日、国家安全保障を脅かす可能性があるとして、半導体、量子コンピュータ、AIなどのハイテク分野に関して、米国企業による中国企業への投資を禁止、あるいは報告義務を課す規制案を公表した。8月4日までに意見公募を済ませ、年内にも実施される見通しだ。この政策は果たして米国に利益をもたらすだろうか。 この1年の間、大規模言語モデルに関して画期的な進歩をもたらす可能性のある研究論文が発表されており、それらが一部の有識者の間で話題となっている。エヌビディア一強時代を崩すきっかけになるかもしれないという点で注目度の高い論文だが、それらは米中共同開発の形で進められている。 マイクロソフト、中国科学院大学、清華大学の研究者は2023年10月、ニューラルネットで用いられるパラメーターについて、現在使われている16進法による高精度浮動小数点(4ビット)を量子化された3つの数字(-1、0、1)(1

                              エヌビディア一強が崩れる可能性も 米中共同で開発が進む「大規模言語モデル」の革命的な進化 | マネーポストWEB
                            • WSL2でMatMul-Free LMを試してみる|noguchi-shoji

                              「LLM 1Bパラメータで行列計算を完全に排除できた。メモリ消費量を学習時10倍、推論時61%Max削減」らしいMatMul-Free LMを試してみます。 LLM 1Bパラメータで行列計算を完全に排除できた(らしい)。メモリ消費量を学習時10倍、推論時61%Max削減(らしい)。https://t.co/tB3x1kmo4Fhttps://t.co/pb0YgAKSpw HFにモデルがアップロードされているので試してみよう。 学習は8x H100で370M:5h、1.3B: 84h、2.7B: 173hらしく1x 4090は厳しい — NOGUCHI, Shoji (@noguchis) June 26, 2024 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 6

                                WSL2でMatMul-Free LMを試してみる|noguchi-shoji
                              • エヌビディア一強が崩れる可能性も 米中共同で開発が進む「大規模言語モデル」の革命的な進化 | マネーポストWEB

                                米国財務省は6月21日、国家安全保障を脅かす可能性があるとして、半導体、量子コンピュータ、AIなどのハイテク分野に関して、米国企業による中国企業への投資を禁止、あるいは報告義務を課す規制案を公表した。8月4日までに意見公募を済ませ、年内にも実施される見通しだ。この政策は果たして米国に利益をもたらすだろうか。 この1年の間、大規模言語モデルに関して画期的な進歩をもたらす可能性のある研究論文が発表されており、それらが一部の有識者の間で話題となっている。エヌビディア一強時代を崩すきっかけになるかもしれないという点で注目度の高い論文だが、それらは米中共同開発の形で進められている。 マイクロソフト、中国科学院大学、清華大学の研究者は2023年10月、ニューラルネットで用いられるパラメーターについて、現在使われている16進法による高精度浮動小数点(4ビット)を量子化された3つの数字(-1、0、1)(1

                                  エヌビディア一強が崩れる可能性も 米中共同で開発が進む「大規模言語モデル」の革命的な進化 | マネーポストWEB
                                • BitTransformer界隈に激震!ついに使える乗算フリーLLMが登場!?|shi3z

                                  今年の3月ごろに話題になって、それから僕も実験してみたけどさっぱり学習できないBitTransformerに変わり、新たにMutmulFreeTransformerというものが出てきたようだと、NOGUCHI, Shojiさんが教えてくれたので試してみた LLM 1Bパラメータで行列計算を完全に排除できた(らしい)。メモリ消費量を学習時10倍、推論時61%Max削減(らしい)。https://t.co/tB3x1kmo4Fhttps://t.co/pb0YgAKSpw HFにモデルがアップロードされているので試してみよう。 学習は8x H100で370M:5h、1.3B: 84h、2.7B: 173hらしく1x 4090は厳しい — NOGUCHI, Shoji (@noguchis) June 26, 2024 ただ、2.7Bモデルが量子化なしで4090で推論できてるとしたらそれだけです

                                    BitTransformer界隈に激震!ついに使える乗算フリーLLMが登場!?|shi3z
                                  • スーパーコンピューターで日本がトップに立ち続けていたら今ブームのAIに繋..

                                    スーパーコンピューターで日本がトップに立ち続けていたら今ブームのAIに繋がったのか? それともスパコンとAIは関係ない? 脱Android⁠⁠、Huaweiが独自OS「HarmonyOS NEXT」てのがニュースなったけど これもスパコン技術が応用されてそこから生まれてたりするの? スパコン予算をすべてに優先してたら日本産独自OSとか日本産AIに繋がってたんだろうか? つながらない OSはもうぜんぜんまったく完璧に関係ないのでAIについてだけ説明する まず2010年代に始まった第3次AIのブームはソフトウェアというかアルゴリズムのブレークスルーがきっかけ カナダのYoshua Bengio、Geoffrey Hinton、Yann LeCunの3人がディープニューラルネットワークに関する発見をしたこと 3人はこの業績で「ディープニューラルネットワークがコンピューティングの重要な要素となるた

                                      スーパーコンピューターで日本がトップに立ち続けていたら今ブームのAIに繋..
                                    • インデックス以外に持っている個別株トップ5 - FIRE: 投資でセミリタイアする九条日記

                                      ぼくはインデックス投資家を自認していますが、実はインデックスは資産のうち35%で残りはいろいろな資産に分散されています。中でもボリュームが大きめなのが個別株。全体の10.6%を占めています。今回はこちらの紹介です。 番外 Microsoft 5位 NVIDIA 4位 Meta 3位 Amazon 2位 Google 1位 ARCC(エイリスキャピタル) 各社のファンダメンタルズ 個別株の株価推移 番外 Microsoft まずは番外編から。トップ5に漏れたのはMicrosoftでした。こちら2023年の11月20日あたりに購入し、円建てで29.6%も上昇しています。 ぼくの総資産に占める割合はわずかに0.45%ですが、世界トップクラスの時価総額を持つこの銘柄、S&P500の中では7.19%ものシェアを持っています。 Microsoftは今やクラウド(Azure)の会社であり、AIの会社です

                                        インデックス以外に持っている個別株トップ5 - FIRE: 投資でセミリタイアする九条日記
                                      • Flip FluidsとOcean Modifierの連携【Blender】

                                        液体のシミュレーションに特化したBlenderアドオンのFlip Fluidsと、Blenderに備わっているOceanモディファイヤで生成できる海シミュレーションの連携方法のメモ記事です。 ※自分のメモ用なので、雑ですが許してください。(現在作成中) Flip FluidsとOcean Modifier Flip Fluids公式サイト FLIP Fluids Addon for Blender – FLIP Fluids Addon For Blenderflipfluids.com Blender Market Flip FluidsFLIP Fluids is a powerful liquid simulation addon that helps you create high quality fluid effects all within Blender!blenderma

                                          Flip FluidsとOcean Modifierの連携【Blender】
                                        • GeForce GTX 1050のスペック&性能ベンチマークを検証【2024年】 | ゲーミングPC徹底解剖

                                          前世代のGTX 950と同じPascal世代の上位モデルであるGTX 1050 Tiと比較しながらスペックを見ていく。また、参考として最新のTuring世代GTX 1650も一覧にまとめているので合わせて見て欲しい。まず、前世代のGTX 950と比較するとアーキテクチャがMaxwellからPascalに変わり、プロセスも28nmから半分の14nmになっている。トランジスタ数が29億→33億へと15%増えているにも関わらず、プロセスは227m㎡→132m㎡へと40%小さくなった。少ないスペースをより有効活用できるということだ。 GTX 950と比べてCUDAコアが768基→640基に15%少なくなった。一方で、コアクロックが32%高く、ブーストクロックも23%高い。結果的にパフォーマンスで上回っている。GPUメモリはGDDR5 2GBと共通だ。メモリクロックが10%高くなり、バンド幅が6%高

                                            GeForce GTX 1050のスペック&性能ベンチマークを検証【2024年】 | ゲーミングPC徹底解剖
                                          • DeepSpeedはなぜ速いのか〜推論編〜

                                            はじめに 昨今、ChatGPTに代表されるように、LLM(大規模言語モデル)が大きな盛り上がりを見せています。 本記事では、LLMの学習や推論を高速化するためのライブラリであるDeepSpeedが、どのようにしてその高速化を達成しているのかを解説します。 DeepSpeedの理論部分、特に推論について日本語で解説している記事があまりなかったため、今回執筆することにしました。 この記事を読んで欲しい人 DeepSpeedでなぜ推論が速くなるのかを知りたい人 DeepSpeedを使って手元の推論時間を短縮したい人 DeepSpeedとは DeepSpeedは、Microsoftから発表されている学習や推論の高速化、圧縮などを扱うライブラリです。本記事では、特に推論の高速化について解説します。推論高速化のためのサービスとしては、他にもvLLMやTGI、Together Inference Eng

                                              DeepSpeedはなぜ速いのか〜推論編〜
                                            • NVIDIAの死角とは? AI半導体シェア70〜95%、粗利益率78%が意味するもの(小久保重信) - エキスパート - Yahoo!ニュース

                                              米NVIDIA(エヌビディア)は、AI(人工知能)向け半導体の需要増に支えられ快走が続く。一方、クラウドサービス大手が独自AI半導体の開発に注力しており、今後顧客がライバルになる恐れも出てきた。 AI半導体市場で圧倒的優位性みずほ証券の分析によると、米オープンAIの「GPT」のようなAIモデルに使われる半導体の市場で、エヌビディアは70〜95%のシェアを持つ。 同社の強力な価格決定力を裏づけるのは、78%という高い売上高総利益率(粗利益率)だ。これはネット上のサービスではなく、モノを販売するハードウエア企業として、驚異的に高い数字だ。 米CNBCによると、エヌビディアはAI半導体市場で圧倒的な優位性を持ち、一部の専門家から「堀に囲まれた城」といわれている。 主力のGPU(画像処理半導体)「H100」とソフトウエア「CUDA」によって大きく先行しており、代替製品への切り替えが考えにくい状況だ

                                                NVIDIAの死角とは? AI半導体シェア70〜95%、粗利益率78%が意味するもの(小久保重信) - エキスパート - Yahoo!ニュース
                                              • 架空の説明文テキストを  Qwenモデル が理解しているかを検証しています。とのテーマをシュミレートしてみます。 - Qiita

                                                架空の説明文テキストを  Qwenモデル が理解しているかを検証しています。とのテーマをシュミレートしてみます。機械学習DeepLearningポエムChatGPTQwen 架空の説明文を生成し、その内容に対する質問と回答を生成する一連の処理を行います。 架空の説明文を Qwenモデル が理解しているかを検証しています。 Iteration 1: Generated Topic: 「AI(人工知能)と計算機科学」についての記事を作成します。 はじめに: AIと計算機科学の基本的な概念、目的、そして関係性を説明します。 AI Generated Wikipedia-style Article: AI (人工知能)とは、計算機が人間の思考や学習を模倣し、その結果、自己改善する能力を持つ技術のことです。この技術は、問題解決、情報処理、データ分析、自然言語処理など、多くの分野で広く使用されています

                                                  架空の説明文テキストを  Qwenモデル が理解しているかを検証しています。とのテーマをシュミレートしてみます。 - Qiita
                                                • Optimizing AI Inference at Character.AI

                                                  At Character.AI, we're building toward AGI. In that future state, large language models (LLMs) will enhance daily life, providing business productivity and entertainment and helping people with everything from education to coaching, support, brainstorming, creative writing and more. To make that a reality globally, it's critical to achieve highly efficient “inference” – the process by which LLMs g

                                                    Optimizing AI Inference at Character.AI
                                                  • DeepSpeedのZeRO-Inferenceを使ってV100-16GBの環境で30BのLLMを動かしてみました。 - CCCMKホールディングス TECH LABの Tech Blog

                                                    こんにちは、CCCMKホールディングス TECH LABの三浦です。 この頃はとても暑い日が続いています。年を取るにつれ、だんだん暑いのが苦手になってきたように思います。日差しが強い中外を歩くと、明らかに身体にダメージを受けているような気がします。出来るだけ日陰を歩くようにしたり、帽子をかぶるようにして、暑さを少しでも抑えるようにしないとですね。 先日参加したDatabricksのDATA+AI SUMMITでは大規模言語モデル(LLM)に関するトピックがたくさんあり、特にオープンソースのLLMについてはこれからどんどん活用していきたい、と考えています。なのですが、私がこれまで使ってきたNVIDIA V100-16GBの環境では推論処理だけでも動かすのが難しいサイズのオープンソースのLLMもあります。 これまで色々試してきた感じですと、大体10B(100億)くらいのパラメータ数のLLMだと

                                                      DeepSpeedのZeRO-Inferenceを使ってV100-16GBの環境で30BのLLMを動かしてみました。 - CCCMKホールディングス TECH LABの Tech Blog
                                                    • AI時代に入り、中国独自の半導体による脱米国の可能性は少し出てきた!? (1/2)

                                                      中国独自のGPUを開発している「Moore Threads(摩尓線程)」による大規模コンピューティング向けのアクセラレーター「MTT S4000」。CUDAのエコシステムをそのまま活用できるとしている 中国産半導体のみでのPCの代替はこれまでも話題になったが なかなか難しい現実があったが、大分状況は変わった!? 米国によるファーウェイへの制裁以降、中国では西側諸国に対抗するためIT機器を自前で揃えようとする動きが加速している。 本連載ではこれまでも、「中国独自の命令セットのCPUとパーツを用いた「完全中国製PC」でWindowsアプリが動いたと話題に」「中国産CPUやGPUが続々発表、中国政府も力を入れる脱米国は現実化するか?」といった記事を書いてきたが、後者の記事からは2年が経過した。この2年の間に大規模データモデルと生成AIが大きなトレンドとなったのは中国でも同じ。自前のソフトとハード

                                                        AI時代に入り、中国独自の半導体による脱米国の可能性は少し出てきた!? (1/2)
                                                      • PyTorchを使ったDeep Learningのお勉強 画像処理編【ノイズ除去実験】 - konchangakita

                                                        基本的な画像認識はなんとなくできたので、ここからは応用編です せっかく実装してみたCNNを応用して、オートエンコーダ(自己符号化器)にチャレンジしてみたいと思います というわけで、今回はDAE(Denoising Autoencoder)とよばれる、画像からノイズ除去に挑戦です ⅰ)入力された画像をCNN畳み込み処理で重要な特徴をとりだし、 ⅱ)重要な特徴を捉ええたフィルタが作られ ⅲ)このフィルタで復元する過程で邪魔な画素(ノイズ)は取り除かれ、 ⅳ)ノイズの無い画像が完成! (元の画像荒いのは、32x32 pixelで軽いから使っているのです) ※先に言い訳を書いておきますが、今回試す手法以外にに良い手法(or学習モデル)はたくさんあります! ※今回はあくまで独学でできるDAEに挑戦し、 Python / PyTorch の Deep Learning コーディング能力向上のお勉強用で

                                                          PyTorchを使ったDeep Learningのお勉強 画像処理編【ノイズ除去実験】 - konchangakita
                                                        • GitHub - karpathy/LLM101n: LLM101n: Let's build a Storyteller

                                                          What I cannot create, I do not understand. -Richard Feynman In this course we will build a Storyteller AI Large Language Model (LLM). Hand in hand, you'll be able create, refine and illustrate little stories with the AI. We are going to build everything end-to-end from basics to a functioning web app similar to ChatGPT, from scratch in Python, C and CUDA, and with minimal computer science prerequi

                                                            GitHub - karpathy/LLM101n: LLM101n: Let's build a Storyteller
                                                          • NVIDIA Driver, CUDA, cuDNNのインストールをAPTでサクッと済ませる - Ubuntu Linux

                                                            この記事のポイント NVIDIA Driver, CUDA, cuDNNはAPTでリモートリポジトリからインストールすると便利です。 これによってsudo apt update; sudo apt upgradeによる自動更新が可能になります。 一方、バージョンを指定したアップグレード、ダウングレードも同じ手続きでできます。 Ubuntu以外のディストリビューションでも類似の方法でパッケージマネージャーから管理ができます。具体的な方法は末尾のNVIDIA公式マニュアルを参照してください。 NVIDIAリポジトリの設定 NVIDIA Driver, CUDA Toolkit, cuDNNはすべて以下のNVIDIAのリポジトリにあります。 Ubuntu 22.04の場合、以下のコマンドでリポジトリの登録ができます。 $ wget https://developer.download.nvidi

                                                              NVIDIA Driver, CUDA, cuDNNのインストールをAPTでサクッと済ませる - Ubuntu Linux
                                                            • 「エヌビディアはすでに守りの姿勢に入った」金融大手モルガン・スタンレーがそう断言する理由

                                                              画像処理装置(GPU)大手エヌビディア(Nvidia)のジェンスン・フアン最高経営責任者(CEO)。 REUTERS/Ann Wang 急成長を遂げるAIコンピューティングパワー(計算処理能力)市場をほぼ独占してきたエヌビディア(Nvidia)だが、その圧倒的なシェアを競合他社に奪われまいと、ここに来て守りの姿勢に転じた兆候が見て取れる。 競合他社はエヌビディアの深刻な脅威となり得るのか、なるとすればそれはいつ頃になるのか、米ウォール街の投資関係者らは市場の動向に目を光らせてきた。 アマゾン(Amazon)のAIチップ開発は今のところ目立った成功を得られていない。 マイクロソフト(Microsoft)やメタ・プラットフォームズ(Meta Platforms)、グーグル(Google)はいずれも自社開発に取り組んでいるものの、実用化もしくは商用化には至っていない。 結局、エヌビディア製のGP

                                                                「エヌビディアはすでに守りの姿勢に入った」金融大手モルガン・スタンレーがそう断言する理由
                                                              • NVIDIAの強さの秘密!エヌビディアの技術革新と市場戦略を解説


                                                                NVIDIAAIGPUNVIDIA1  NVIDIA199331999GeForce GPUNVIDIA  The world
                                                                  NVIDIAの強さの秘密!エヌビディアの技術革新と市場戦略を解説
                                                                • UbuntuでMusePoseを試してみる|noguchi-shoji

                                                                  「仮想人間生成のためのポーズ駆動型イメージ-to-ビデオ フレームワーク」であるらしいMusePoseを試してみます。 1. 準備環境構築python3 -m venv musepose cd $_ source bin/activateリポジトリをクローンして、パッケージをインストールします。 # clone git clone https://github.com/TMElyralab/MusePose cd MusePose # requirements.txt pip install -r requirements.txt # mmlabパッケージのインストール pip install --no-cache-dir -U openmim mim install mmengine mim install "mmcv>=2.0.1" mim install "mmdet>=3.1.0"

                                                                    UbuntuでMusePoseを試してみる|noguchi-shoji
                                                                  • Fixed AdaCosのすすめ:固定スケールで使おう! | 「AIのちからを簡単に」東海顔認証

                                                                    簡単な分類問題を、単純なネットワークで解決した場合、CrossEntropy Lossでも良い結果を残しています。 しかし、Fixed AdaCosも良いスコアです。 loss_test_face_recognition.py import math import matplotlib.pyplot as plt import numpy as np import timm import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim from pytorch_metric_learning import losses, regularizers, samplers from sklearn.neighbors import KNeighborsClassifie

                                                                    • Google Colab上でQLoRAを作成してGGUFに変換してみた - Sun wood AI labs.2

                                                                      セットアップとライブラリのインストール PyTorchライブラリのインポート import torch PyTorchライブラリをインポートします。これは深層学習のための主要なライブラリです。 CUDAデバイスのバージョン確認 major_version, minor_version = torch.cuda.get_device_capability() CUDAデバイス(GPU)のメジャーおよびマイナーバージョンを取得します。これは、使用するGPUの能力を確認するために必要です。 Unslothライブラリのインストール if major_version >= 8: !pip install "unsloth[colab_ampere] @ git+https://github.com/unslothai/unsloth.git" else: !pip install "unsloth[

                                                                        Google Colab上でQLoRAを作成してGGUFに変換してみた - Sun wood AI labs.2
                                                                      • AIでラフを線画に整えるだけの無料webアプリ『sketch2lineart』公開|とりにく

                                                                        結論から言うと、こんなことができます。 カラーイラストを線画にすることも可能です。 先日、AI-AssistantV3なるお絵描き補助AIフリーソフトを公開したのですが、多くの方から『私のPCじゃ動かん!』というご意見をいただきました。 わかる~!ちょっとAIに興味あるだけの人が20万↑のPCに手を出せるわけないよね。それが本当に使えるモノかどうかもまだわからないのに。 私もできる範囲で動作サポートするものの(抜けていたらすみません!) 元々のPCのスペック問題自体はどうしようもないジレンマに葛藤していました。 ならばスマホからでも動くシンプルなwebアプリ作ったろうじゃん!!! と思ったので作りました。 機能限定版AI-AssistantV3みたいな立ち位置だと思って下さい。まぁ微妙にアルゴリズム違うんで厳密には別物ですが。 【追記】勘違いする方もいるっぽいので明記しておきます! こちら

                                                                          AIでラフを線画に整えるだけの無料webアプリ『sketch2lineart』公開|とりにく
                                                                        • UnslothでLlama3をファインチューニングする

                                                                          はじめに Unslothはより高速なLLMファインチューニングのための軽量ライブラリです。 Unslothを使う理由としては単に高速なだけでなく、Llama3公式推奨のFine-tuningフレームワークより低いスペックのマシンでも動作するところが良いからです。 この記事では、Unslothを使ってLlama3をFine-tuningする方法について説明します。 開発環境 WSL2 (Ubuntu 24.04) Anaconda CUDA 12.5 本記事で使うソースコード及びデータセットは、GitHub上で公開しています。 前準備 まずは環境構築です。正直ここが一番苦労でした。 自分でなんとかライブラリーをインストールしたりしないで、Anacondaを使って環境構築することをおすすめします。 CUDAのインストール sudo apt-key del 7fa2af80 wget https

                                                                            UnslothでLlama3をファインチューニングする
                                                                          • Ubuntu 24.04でDockerを使用して任意のCUDAバージョンのコンテナを動作させる方法 - Qiita

                                                                            はじめに 機械学習の勉強をしていると、使用するAIモデルに合わせたライブラリやCUDAバージョンを用意する必要があります。このガイドでは、Ubuntu 24.04でDockerを使用し、任意のCUDAバージョンを使用したコンテナを実行する方法を説明します。 Dockerのインストールまでは前回の記事で紹介しているのでそちらを参考にしてください。 Dockerを使用する前に、、 まずは現在の環境でnvidiaドライバがインストールされているかを確認します。 ターミナルで以下コマンドを入力して確認をしてください。

                                                                              Ubuntu 24.04でDockerを使用して任意のCUDAバージョンのコンテナを動作させる方法 - Qiita
                                                                            • Docker +NVIDIA countainer toolkit 環境でCUDA tool kit nbody によるGPUストレステスト - Qiita

                                                                              Docker +NVIDIA countainer toolkit 環境でCUDA tool kit nbody によるGPUストレステストCUDANVIDIAnbodynvidia-container-toolkit 概要 今流行りのdocker + nvidia container toolkit を用いてGPUの負荷テストが手軽にできないか検証しました。 ハードウェア構成 Geforce ソフトウェア構成 OS : Ubuntu22.04.1LTS Nvidia Driver:525.85.05インストール済 dockerインストール 公式ドキュメントに従ってインストールします。 https://docs.docker.com/engine/install/ubuntu/ #repository追加 sudo apt-get update sudo apt-get install \

                                                                                Docker +NVIDIA countainer toolkit 環境でCUDA tool kit nbody によるGPUストレステスト - Qiita
                                                                              • 2D to 3D animationができるAI「DreamGaussian4D」で遊んでみる|SUTO💡

                                                                                DreamGaussian4DとはDreamGaussian4Dは静止画像やビデオから4Dガウススプラッティング生成(ガウス関数を用いてオブジェクトの形状や動きをスムーズに補完し、高品質な3Dモデルを生成)をしてしまう技術です。 簡単に言ってしまうと、2D画像からあっという間に3Dのアニメーションデータが出力できますって感じでしょうか。 Python、CUDA、PyTorch、xformers、simple-knnなどの技術を使用しているようです。 🌐プロジェクトページ類

                                                                                  2D to 3D animationができるAI「DreamGaussian4D」で遊んでみる|SUTO💡
                                                                                • ゼロショットの物体検出(Grounding DINO,Python,PyTorch を使用)(Windows 上)

                                                                                  【要約】 Grounding DINOは、Zero-Shot TransferとReferring Object Detectionに対応した高度な物体検出モデルである。このモデルはDINOとGrounded Pre-Trainingを組み合わせている。現在の実装では、Swin-TやSwin-Lをバックボーンとして使用している。Windows環境でのインストールは、GitHubからのリポジトリクローンと必要なパッケージのインストールで完了する。訓練済みモデルもダウンロード可能である。動作確認はPythonを用いて行い、指定したプロンプトに基づいての動作が可能である。さらに、画像選択ダイアログで画像を選択し、プロンプトも実行時にユーザーが指定できるPythonプログラムを示している。このページの手順により、Grounding DINOの基本的なセットアップと動作確認が簡単に行える。詳細は公式