並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 109件

新着順 人気順

CUDAの検索結果1 - 40 件 / 109件

  • Nintendo Switch 2の詳細スペック判明。CUDAコアは1280基、CPUはArm A78を8コア搭載


    Nintendo Switch 2GPUCUDA1280CPUArm A788 Nintendo Switch 2Gamescom2023Unreal Engine 5 AmpereGPUGPUCUDACPU Samsung Foundry 7LPH(8-nanometer improved version)  Revegnus (@Tech_Reve) September
      Nintendo Switch 2の詳細スペック判明。CUDAコアは1280基、CPUはArm A78を8コア搭載
    • CUDAを一枚の絵にまとめてみた - OPTiM TECH BLOG


       R&DFPS150 GPUNVIDIACUDACCPU+GPU CUDA使CPU+GPUCUDAAPI
        CUDAを一枚の絵にまとめてみた - OPTiM TECH BLOG
      • CUDA on WSL 2のすすめ - Qiita

        前置き 個人マシンで3090 Tiが使えるようになり、ウキウキでEfficientNetV2を回してみると…共有マシンの3090よりも遅い。 どうやらWindowsではパフォーマンスが出ないというウワサは本当だったらしい。(他の要素も検証しろ! 「Windowsが許されるのは小学生までだよねー」などとイジられながらも頑なにWindowsで粘ってきたが そろそろ潮時だろうかと考えていると、CUDA on WSL 2がnear-nativeなパフォーマンスで動くと聞こえてきた。 結果、WSL 2+Docker環境で学習を回すと、Windowsネイティブ環境と比べて実行時間が16%短縮された。 導入方法 以下のページで丁寧に解説されています。 補足: CUDAをDockerから使う場合は「3. CUDA Support for WSL 2」の手順は不要です。 罠1 systemctlが使えないと

          CUDA on WSL 2のすすめ - Qiita
        • 待ってました CUDA on WSL 2 - Qiita

          最新情報 (2022-06-15 時点) エヌビディアの佐々木です。 2020 年 6 月にこの記事を書いて以来、Windows Insider Preview や NVIDIA ドライバの新しいビルドが出たタイミングなどで記事を更新してきましたが、あちこちに注釈が増えて読みづらくなってきたので、今後はこの「最新情報」セクションに新しい情報を集約しようと思います。あと、更新履歴は記事末尾へ送りました。 私が動作を確認したバージョン Windows のビルド: 22621.1 (Windows 11 バージョン 22H2) NVIDIA ドライバ: 512.95 nvidia-smi コマンドの GPU-Util 欄が "N/A" になってしまう問題は解決! 実行した NGC コンテナイメージ nvcr.io/nvidia/tensorflow:22.05-tf2-py3 Docker De

            待ってました CUDA on WSL 2 - Qiita
          • Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判

            AMDのAthlonやZenマイクロアーキテクチャ、Apple A4などさまざまなチップの開発に携わったアーキテクトでエンジニアのジム・ケラー氏が、X(旧Twitter)で「NVIDIAのCUDAは沼です」と批判したことが報じられています。 Jim Keller criticizes Nvidia's CUDA, x86 — 'Cuda’s a swamp, not a moat. x86 was a swamp too' | Tom's Hardware https://www.tomshardware.com/tech-industry/artificial-intelligence/jim-keller-criticizes-nvidias-cuda-and-x86-cudas-a-swamp-not-a-moat-x86-was-a-swamp-too ケラー氏の経歴は以下の記事を

              Apple A4チップやAMD Ryzenの生みの親であるジム・ケラー氏がNVIDIAのCUDAとx86アーキテクチャを「沼」と呼んで批判
            • AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中

              NVIDIAはAI開発に使われるGPUで大きなシェアを獲得しているほか、ソフトウェア開発および実行環境「CUDA」もAIの開発現場で広く採用されています。そんなNVIDIAの一人勝ち状態に対抗するべく、Intelや富士通、Google、Armなどのテクノロジー企業が参加する業界団体「Unified Acceleration Foundation(UXL Foundation)」がオープンなソフトウェア開発環境の構築を進めています。 UXL Foundation: Unified Acceleration https://uxlfoundation.org/ Unified Acceleration (UXL) Foundation https://www.intel.com/content/www/us/en/developer/articles/news/unified-accelera

                AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中
              • NVIDIAがCUDAを他のハードウェア上で実行することを禁止

                NVIDIAが、GPU向けのコンピューティングプラットフォームとして提供している「CUDA」のソフトウェア利用許諾契約(EULA)の中で、翻訳レイヤーを通じてNVIDIA以外のハードウェアプラットフォームで実行することを禁止していることがわかりました。もともとこの条項はNVIDIAのサイト上で公開されているオンライン版のEULAには含まれていましたが、インストールしたCUDAのドキュメントにも含まれるようになったとのことです。 License Agreement for NVIDIA Software Development Kits — EULA https://docs.nvidia.com/cuda/eula/index.html Nvidia bans using translation layers for CUDA software — previously the prohi

                  NVIDIAがCUDAを他のハードウェア上で実行することを禁止
                • AI時代に一人勝ち。NVIDIAの「CUDA」がIntelやAppleを蹴散らし業界の“実質的なスタンダード”になった背景を中島聡が徹底解説 - まぐまぐニュース!

                  空前のAIブームの中にあって、その開発の現場で「一人勝ち」とも言うべき圧倒的なシェアを誇っているNvidia(エヌビディア)のGPU向け開発環境「CUDA」。IntelやAppleといったライバルたちを尻目に、いかにしてCUDAはトップに登り詰めたのでしょうか。今回のメルマガ『週刊 Life is beautiful』では世界的エンジニアとして知られる中島聡さんが、CUDA誕生の経緯から業界の「事実上の標準」となるまでを詳しく解説。さらにMicrosoftが5月20日に発表した「Copilot+PC」に関して、中島さんが注目したポイントを記しています。 ※本記事のタイトル・見出しはMAG2NEWS編集部によるものです/原題:NvidiaのCUDAが今の地位を築いた経緯 プロフィール:中島聡(なかじま・さとし) ブロガー/起業家/ソフトウェア・エンジニア、工学修士(早稲田大学)/MBA(ワシ

                    AI時代に一人勝ち。NVIDIAの「CUDA」がIntelやAppleを蹴散らし業界の“実質的なスタンダード”になった背景を中島聡が徹底解説 - まぐまぐニュース!
                  • XboxでStable Diffusionを動作させる猛者が登場、ONNX利用でPythonへの依存をゼロにしてNVIDIAのCUDA・AMDのROCm・AppleのCoreML・QualcommのQNN・MicrosoftのDirectMLでも動いてWindows・Linux・macOS・Android・iOS・WebAssemblyなど全てOK、ほぼあらゆるアプリケーションへの統合が可能に

                    Stable Diffusionは文字や画像を元に新たな画像を生成してくれるAIですが、実行環境としてPythonが必要とされてきました。そんな中、ONNXモデルおよびONNX Runtimeの活用とC++での実装でPythonへの依存をなくし、Xbox上で動作させることに成功した猛者が登場しました。 Stable Diffusion running on Xbox Series X and S for the first time - YouTube 左端の大きなアイコンが今回作成された「Unpaint」というアプリ。記事作成時点ではストアには存在せず、インストールするにはユーザーが自分でパッケージに署名する作業が必要になります。Xbox Series XおよびXbox Series Sのどちらでも動作可能とのこと。左の大きな画面にXbox Series Xの出力が表示されています。 起

                      XboxでStable Diffusionを動作させる猛者が登場、ONNX利用でPythonへの依存をゼロにしてNVIDIAのCUDA・AMDのROCm・AppleのCoreML・QualcommのQNN・MicrosoftのDirectMLでも動いてWindows・Linux・macOS・Android・iOS・WebAssemblyなど全てOK、ほぼあらゆるアプリケーションへの統合が可能に
                    • NVIDIA CUDAがWindows Subsystem for Linux上で利用可能に

                        NVIDIA CUDAがWindows Subsystem for Linux上で利用可能に
                      • NVIDIA、macOSをサポートした最後のCUDA Toolkiをv10.2リリース。次期アップデートでmacOSは非サポートに。

                        NVIDIAがCUDA Toolki 10.2をリリースすると共に、次期アップデートからはmacOSは非サポートになると発表しています。詳細は以下から。 NVIDIAは現地時間2019年11月17日、ToolkitとNVIDIAドライバを含んだCUDA v10.2をリリースしましたが、同リリースノートによると、CUDA Toolkit v10.2はmacOSをサポートする最後のアップデートとなるそうです。 CUDA 10.2 (Toolkit and NVIDIA driver) is the last release to support macOS for developing and running CUDA applications. Support for macOS will not be available starting with the next release of

                          NVIDIA、macOSをサポートした最後のCUDA Toolkiをv10.2リリース。次期アップデートでmacOSは非サポートに。
                        • GPU・CUDAを活用して数値計算やAIのトレーニングを高速化するのに必要な基礎知識のコード例付きまとめ

                          GPUはCPUよりもはるかに多くのコアを備えており、多数の並列処理を行う事が可能です。そうしたGPUの性能を活用するために必要な知識を、ITエンジニアのリジュル・ラジェシュさんがブログにまとめています。 GPU Survival Toolkit for the AI age: The bare minimum every developer must know https://journal.hexmos.com/gpu-survival-toolkit/ 現代のAIモデルで使用されているTransformerアーキテクチャは並列処理を活用して大きく性能を向上させており、そうしたAIの開発に関わる場合は並列処理についての理解が必須になってきます。CPUは通常シングルスレッドの逐次処理性能が高まるように設計されており、複雑なAIモデルで必要となる、多数の並列計算を効率的に分散して実行するのに

                            GPU・CUDAを活用して数値計算やAIのトレーニングを高速化するのに必要な基礎知識のコード例付きまとめ
                          • GitHub - chrxh/alien: ALIEN is a CUDA-powered artificial life simulation program.

                            Artificial LIfe ENvironment (ALIEN) is an artificial life simulation tool based on a specialized 2D particle engine in CUDA for soft bodies and fluids. Each simulated body consists of a network of particles that can be upgraded with higher-level functions, ranging from pure information processing capabilities to physical equipment (such as sensors, muscles, weapons, constructors, etc.) whose execu

                              GitHub - chrxh/alien: ALIEN is a CUDA-powered artificial life simulation program.
                            • NVIDIA、macOSのサポートを正式に終了した「CUDA Toolkit v11」をリリース。MacではCUDAアプリの開発と実行は出来ない状態に。

                              NVIDIAがmacOSのサポートを正式に終了した「CUDA Toolkit v11」をリリースしています。詳細は以下から。 NVIDIAは現地時間2020年06月05日、GPUプログラミング開発ツール「CUDA Toolkit」をバージョンv11(v11.0.171)へアップデートし、昨年11月にアナウンスしていたとおりmacOSのサポートを正式に終了したと発表しています。 CUDA 11.0 does not support macOS for developing and running CUDA applications. Note that some of the CUDA developer tools are still supported on macOS hosts for remote (target) debugging and profiling. See the

                                NVIDIA、macOSのサポートを正式に終了した「CUDA Toolkit v11」をリリース。MacではCUDAアプリの開発と実行は出来ない状態に。
                              • CUDAより高速化可能で簡単なOpenACCのランタイム関数で実行中のPGI Unified Binaryの演算デバイスを切り替えられるのか検証してみた - Qiita

                                CUDAより高速化可能で簡単なOpenACCのランタイム関数で実行中のPGI Unified Binaryの演算デバイスを切り替えられるのか検証してみたCUDAGPGPUGPU機械学習OpenACC この記事は何? CUDA123 に代わる新しい GPU の 標準API 、OpenACC が最近 CUDA よりも高速化できたという結果4を出していて調子が良いので、現状のヘテロジニアス環境でのマルチデバイス実行(複数のデバイス:CPU、GPU、FPGA、メニーコアCPU、ASIC などを組み合わせた演算)の対応状況を調査してみました。 そもそもOpenACCとは? NVIDIAが中心となって本腰を入れているGPGPUなどのハードウェアアクセラレーションの標準APIです。その特徴として最も特筆すべき点はCUDAと比較してプログラミングが超簡単なことです。以前なら性能差がよりシビアでしたが、現在

                                  CUDAより高速化可能で簡単なOpenACCのランタイム関数で実行中のPGI Unified Binaryの演算デバイスを切り替えられるのか検証してみた - Qiita
                                • "RWKV_CUDA_ON"を1に設定してRWKVを高速化する - Qiita

                                  ローカル環境でも高速で動作するLLMとして話題のRWKVですが、ドキュメントを見ていると環境変数の"RWKV_CUDA_ON"を1に設定することでより高速で動くということなので試してみました。 設定を変更するときに1箇所エラーで躓いたところがあったのでそちらも記録しておきます。 RWKVとは RWKVとはTransformerレベルの性能を持つRNNです。他のLLMと同様に高性能でありつつ推論が高速でVRAMを節約しているのが特徴です。 RWKVをチャットで使えるようにしたものとしてChatRWKVがあります。 また、RWKVをAlpacaデータセットなどを使用してファインチューニングしたものとしてRavenがあります。 ChatRWKVの使い方は次の記事で分かりやすく解説されています。 またRWKVのファインチューニングの方法については以下の記事で解説されています。 RWKV_CUDA_

                                    "RWKV_CUDA_ON"を1に設定してRWKVを高速化する - Qiita
                                  • WSL2にCUDA on WSLをインストールする (1/2)


                                    WSL2GPUWindows 10WSL2GPU使WSL2GPU使GPUNVIDIAGPU使使 NVIDIAGPUCUDA on WSLWSL2DockerNVIDIAAILinuxCUDA on WSL使WindowsWSL2
                                      WSL2にCUDA on WSLをインストールする (1/2)
                                    • CUDAによる局所特徴量計算の高速化とソースコード公開 - Fixstars Tech Blog /proc/cpuinfo


                                         adaskitlibSGMcuda-bundle-adjustment Visual SLAMSfM(Structure from Motion)CUDAcuda-efficient-featuresGitHub fixstars/cuda-efficient-features   Visual SLAMSfM2姿
                                        CUDAによる局所特徴量計算の高速化とソースコード公開 - Fixstars Tech Blog /proc/cpuinfo
                                      • 西川善司の3DGE:GeForce RTX 30シリーズのアーキテクチャを探る。CUDA Coreの増量とRT Coreの高性能化に注目だ

                                        西川善司の3DGE:GeForce RTX 30シリーズのアーキテクチャを探る。CUDA Coreの増量とRT Coreの高性能化に注目だ ライター:西川善司 去る9月2日,NVIDIAは,オンラインイベント「GeForce Special Event」を行い,新世代GPU「GeForce RTX 30」シリーズを発表した。発表となったGPU製品は「GeForce RTX 3090」「GeForce RTX 3080」「GeForce RTX 3070」の3種類で,2018年8月に発表となった「GeForce RTX 20」シリーズの後継製品となる。 本稿では,GeForce RTX 30シリーズのアーキテクチャについて詳しく解説してみよう。 Ampere世代のGPUアーキテクチャを検証する Ampere初のGPUである「GA100」を搭載するモジュール 今回発表となったGeForce R

                                          西川善司の3DGE:GeForce RTX 30シリーズのアーキテクチャを探る。CUDA Coreの増量とRT Coreの高性能化に注目だ
                                        • Windows10とCUDAでPyTorchを使う準備 - ITips

                                          Windows10のGPU環境でPyTorchやTensorFlowを利用したい。 そのためにはCUDAのcudnnのインストールが必要となる。 今回はWindows10とCUDAでPyTorchを使う準備について紹介する。 WindowsでCUDAを使う準備 PyTorchにしろTensorFlowにしろ、GPU環境で利用するにはCUDAの準備が必要だ。 WindowsでCUDAを使う準備としては以下の通り。

                                            Windows10とCUDAでPyTorchを使う準備 - ITips
                                          • 誰得なのか不明ですが2000円でCUDAを試してみました - Qiita


                                             @ixiv  GPGPU1GPUCUDA  20202011315GeForce GTC550Ti2000CUDAYOLOCUDAOpenCVObject Detection使  PCWEB
                                              誰得なのか不明ですが2000円でCUDAを試してみました - Qiita
                                            • 「WSL 2」にCUDA対応など3つの新機能 ~「Windows 10」Build 20150がDevチャネルに。ISOイメージファイルも/「マップ」アプリの地図データは“TomTom”ベースへ

                                                「WSL 2」にCUDA対応など3つの新機能 ~「Windows 10」Build 20150がDevチャネルに。ISOイメージファイルも/「マップ」アプリの地図データは“TomTom”ベースへ
                                              • CUDA on WSL

                                                » 1. NVIDIA GPU Accelerated Computing on WSL 2 v12.4 | PDF | Archive CUDA on WSL User Guide The guide for using NVIDIA CUDA on Windows Subsystem for Linux. 1. NVIDIA GPU Accelerated Computing on WSL 2 WSL or Windows Subsystem for Linux is a Windows feature that enables users to run native Linux applications, containers and command-line tools directly on Windows 11 and later OS builds. CUDA suppor

                                                • WSL2 上の Ubuntu での NVIDIA CUDA ツールキット, NVIDIA cuDNN, PyTorch, TensorFlow 2.11 のインストールと動作確認(Windows 上)


                                                  WSL 2  Ubuntu 22.04  GPU, TensorFlow, PyTorch   https://docs.nvidia.com/cuda/wsl-user-guide/index.html#abstract GPU, TensorFlow, PyTorch 使 Windows Ubuntu Ubuntu 便 WSL 2 :  »    PyTorch  TensorFlow 2.11, numpy, pillow, pydot, matplotlib, keras, opencv
                                                  • NVIDIAのコンピューティングプラットフォーム「CUDA」がWSLで利用可能に

                                                    2020年6月17日にリリースされたWindows 10 Insider Previewの最新バージョン「Build 20150」にて、WSLがNVIDIAのコンピューティングプラットフォーム「CUDA」をサポートしました。この機能強化により、Linuxのみに対応している計算ソフトや専門的なツールを、WSL上で動作させることが可能になります。 Announcing CUDA on Windows Subsystem for Linux 2 | NVIDIA Developer Blog https://devblogs.nvidia.com/announcing-cuda-on-windows-subsystem-for-linux-2/ WSL1は「LXCore」と呼ばれるプログラムを経由してLinuxのアプリケーションを提供していたため、動作不可能なLinuxアプリケーションも存在して

                                                      NVIDIAのコンピューティングプラットフォーム「CUDA」がWSLで利用可能に
                                                    • 「AMD ROCm」が「WSL 2」にベータ対応 ~NVIDIAでいうところの「CUDA」に相当/マルチGPU、「Tensorflow」もサポート

                                                        「AMD ROCm」が「WSL 2」にベータ対応 ~NVIDIAでいうところの「CUDA」に相当/マルチGPU、「Tensorflow」もサポート
                                                      • GPU/CUDAとPyTorch周りの様々なバージョンを理解する - yag's blog

                                                        前置き GPUを利用したディープラーニングの環境構築において、GPUのドライバやCUDAの諸々の設定は初学者が誰しも嵌る最初の難関と言える。私自身これまではネットの情報をあれこれ試して上手く行けばOKで済ませていたが、この辺で今一度正しく理解しておきたい。そこでこの記事を通して、GPU/CUDAとPyTorchの環境構築で遭遇する様々なバージョンの識別とその意味を理解することを目的とする。なお、細かなインストール方法やエラー対応などは本記事では扱わない。また、グラフィックボード/グラフィックカードと呼ぶべきところをGPUと表現している点もご容赦いただきたい。 [注意] この記事はGPU/CUDA素人が書いているので、細かな用語や名称の間違いが多分に含まれていると思われる。間違っていたらごめんなさい。また、事例として紹介しているバージョン番号は当然ながら時が経つにつれ古くなるので注意。 GP

                                                          GPU/CUDAとPyTorch周りの様々なバージョンを理解する - yag's blog
                                                        • CUDA 10.xのDockerイメージをローカルでビルドする - Qiita

                                                          1. はじめに https://hub.docker.com/r/nvidia/cudaを見るとわかるようにEOLとなったCUDAバージョンのDockerイメージが削除されています。ただし、Web上にある公開実装ではCUDA 10.x系のDockerイメージを使っていることがあり、これらの動作確認をするときに困ります。 幸いにもDockerイメージ作成環境はhttps://gitlab.com/nvidia/container-images/cudaにて公開されているため、ここでは以下のDockerイメージをローカルでビルドすることを試みます。 nvidia/cuda:10.2-base-ubuntu18.04 nvidia/cuda:10.2-runtime-ubuntu18.04 nvidia/cuda:10.2-devel-ubuntu18.04 nvidia/cuda:10.2-c

                                                            CUDA 10.xのDockerイメージをローカルでビルドする - Qiita
                                                          • 「NVIDIA CUDA Toolkit」に整数オーバーフローの脆弱性、v11.6 Update 2への更新を/任意コードの実行やサービス拒否(DoS)、情報漏洩につながる可能性

                                                              「NVIDIA CUDA Toolkit」に整数オーバーフローの脆弱性、v11.6 Update 2への更新を/任意コードの実行やサービス拒否(DoS)、情報漏洩につながる可能性
                                                            • CUDA 11 Features Revealed | NVIDIA Technical Blog

                                                              The new NVIDIA A100 GPU based on the NVIDIA Ampere GPU architecture delivers the greatest generational leap in accelerated computing. The A100 GPU has revolutionary hardware capabilities and we’re excited to announce CUDA 11 in conjunction with A100. CUDA 11 enables you to leverage the new hardware capabilities to accelerate HPC, genomics, 5G, rendering, deep learning, data analytics, data science

                                                                CUDA 11 Features Revealed | NVIDIA Technical Blog
                                                              • CUDA C/C++ Basics

                                                                © NVIDIA Corporation 2011 CUDA C/C++ Basics Supercomputing 2011 Tutorial Cyril Zeller, NVIDIA Corporation © NVIDIA Corporation 2011 What is CUDA?  CUDA Architecture  Expose GPU computing for general purpose  Retain performance  CUDA C/C++  Based on industry-standard C/C++  Small set of extensions to enable heterogeneous programming  Straightforward APIs to manage devices, memory etc.  This

                                                                • 安くなってきた中古ゲーミングノートPCを使いローカル生成AIのStable-Diffusion ForgeをCUDAでチューニングしてみた。FP8+LCM Turbo+HyperTileで3.8秒〜15.4秒/枚とそこそこ高速。CPU対比5倍速。古いGPUでもオススメ

                                                                  Kapper@Linuxガジェヲタ&異世界小説家&生成AI&電子工作大好き @kapper1224 という事で中古ゲーミングノートブックPC+CUDA+Stable-Diffusion Forge+FP8+LCM Turbo+HyperTileで1024x512が7.6秒/枚 Model Memory (MB) = 819.7106971740723 Minimal Inference Memory (MB) = 1024.0 贅沢を言わなければ世代遅れマシンでも十分使える。 CPUと比べて5倍速程度だけど pic.twitter.com/IDI9ICJq8Z 2024-03-24 11:19:13

                                                                    安くなってきた中古ゲーミングノートPCを使いローカル生成AIのStable-Diffusion ForgeをCUDAでチューニングしてみた。FP8+LCM Turbo+HyperTileで3.8秒〜15.4秒/枚とそこそこ高速。CPU対比5倍速。古いGPUでもオススメ
                                                                  • Announcing CUDA on Windows Subsystem for Linux 2 | NVIDIA Technical Blog

                                                                    WSL2 is available on Windows 11 outside the Windows Insider Preview. For more information about what is supported, see the CUDA on WSL User Guide. In response to popular demand, Microsoft announced a new feature of the Windows Subsystem for Linux 2 (WSL 2)—GPU acceleration—at the Build conference in May 2020. This feature opens the gate for many compute applications, professional tools, and worklo

                                                                      Announcing CUDA on Windows Subsystem for Linux 2 | NVIDIA Technical Blog
                                                                    • NVIDIAの「CUDA」とIntelのGPUをつなぐソフトウェア「ZLUDA」がAMD向けとして転身復活するも今後の開発は絶望的

                                                                      NVIDIAのコンピューティング向けGPU活用技術「CUDA」をIntel GPUで実行できるようにしたソフトウェア「ZLUDA」が復活しましたが、IntelではなくAMDのGPUで動作するよう改変が加えられていました。 AMD Quietly Funded A Drop-In CUDA Implementation Built On ROCm: It's Now Open-Source - Phoronix https://www.phoronix.com/review/radeon-cuda-zluda Software allows CUDA code to run on AMD and Intel GPUs without changes — ZLUDA is back but both companies ditched it, nixing future updates | T

                                                                        NVIDIAの「CUDA」とIntelのGPUをつなぐソフトウェア「ZLUDA」がAMD向けとして転身復活するも今後の開発は絶望的
                                                                      • NVIDIA GeForce RTX 3050 8GB版が生産終了。CUDAコアを減らした6GB版が新たに登場

                                                                        NVIDIAがGeForce RTX 3050 8GB版の生産終了へ。RTX 3050 6GB版が2024年1月に新たに登場。 消息称英伟达 RTX 3050 8G 显卡将停产,6G 版 1 月上市 – IT之家 (ithome.com) NVIDIAではGeForce RTX 3050 8GB版を2022年1月5日に発売しましたが、中国で半導体製品関係のリーク情報が流れる掲示板、『博板堂』にて同グラフィックカードがまもなく生産終了となり、2024年1月に現行モデルより性能を落としたGeForce RTX 3050 6GBが新たに登場し、置き換えられる事が明らかになりました。 It is expected use same GPU as 3050 Mobile, 2048 CUDA https://t.co/C01MZPzo7K — 포시포시 (@harukaze5719) Decembe

                                                                          NVIDIA GeForce RTX 3050 8GB版が生産終了。CUDAコアを減らした6GB版が新たに登場
                                                                        • Windows 10プレビュー版、WSL上でCUDAが利用可能に

                                                                            Windows 10プレビュー版、WSL上でCUDAが利用可能に
                                                                          • OpenCVの画像処理をGPU(CUDA)で高速化する - Qiita

                                                                            この記事について Jetson NanoにGPU(CUDA)が有効なOpenCVをインストール PythonでOpenCVのCUDA関数を使って、画像処理(リサイズ)を行う C++でOpenCVのCUDA関数を使って、画像処理(リサイズ)を行う 結論 (512x512 -> 300x300のリサイズの場合) 以下のように高速化できた CPU: 2.8 [msec] GPU: 約0.8 [msec] 注意 画像サイズと処理内容によっては、GPUの方が遅くなるので注意 環境 Jetson Nano (jetson-nano-sd-r32.2-2019-07-16.img) OpenCV 4.1.0 測定方法 処理時間測定の前には、以下コマンドを実施 ### 依存パッケージのインストール ### sudo apt update sudo apt upgrade sudo apt -y insta

                                                                              OpenCVの画像処理をGPU(CUDA)で高速化する - Qiita

                                                                            • NVIDIA18176CUDAVRAM48GB800WAda GPUVideoCardz  Ada GPUGeForce RTX 4000 kopite7kimiAD102 GPU18176CUDA (142SM)48GB GDDR6X 24GbpsVRAMGeForce RTX 4090 (24GB GDDR6X 21Gbps)2800W GeForce RTX 4090TDP450W
                                                                                18176CUDA、VRAM48GB、消費電力800WのAda GPU。GeForce RTX 4000シリーズか、TITANか、あるいは | ニッチなPCゲーマーの環境構築Z
                                                                              • CUDAなんてない!Ryzen + RADEONのAMD環境でもStable Diffusionをローカルマシンで動かす。 | 徒労日記

                                                                                いま一部で話題のStable Diffusion。 ちょっと前から出ているMidjourneyと同じく、「画像生成AIが言葉から連想して絵を書いてくれる」というツール。 今はツールだけど、そのうち色々なアプリ、サービスのいち機能に自然な形で組み込まれると思います。 それが自分のPCでも動くらしい! それなら無駄にありあまるGPUパワー(というほどでもないけど)を使ってみたい!! と思い立ち触ってみたけれど、基本NVIDIA=CUDA推奨。 誰かRADEON=AMDでやってる奴いるでしょ! と思ったら意外と日本の記事が出てこなくて苦労しましたとさ。 バイブル基本この動画の通りにやっただけです。 が、これ系の知識が全く無かったので何回もやり直しました。 初めて動いた時は声がでたレベル。 当環境&必要なものCPU:AMD Ryzen 9 5900XGPU:AMD RADEON 6800XTMEM

                                                                                  CUDAなんてない!Ryzen + RADEONのAMD環境でもStable Diffusionをローカルマシンで動かす。 | 徒労日記
                                                                                • 深層学習、機械学習の環境を自動インストール OpenCvとCudaの自動化 - Qiita

                                                                                  Help us understand the problem. What is going on with this article?

                                                                                    深層学習、機械学習の環境を自動インストール OpenCvとCudaの自動化 - Qiita