並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 320 件 / 1465件

新着順 人気順

CUDAの検索結果281 - 320 件 / 1465件

  • Stable Diffusion (Diffusers)でLoRA~理論と実践~ | Shikoan's ML Blog


    Stable DiffusionLoRAdiffusers3DUnityLoRALoRAData Augmentation  Stable DiffusionLoRA使3DLoRA https://huggingface.co/docs/diffusers/training/lora LoRA LoRA使 NLP 
      Stable Diffusion (Diffusers)でLoRA~理論と実践~ | Shikoan's ML Blog
    • Google Cloud Batchを使ってバッチの処理待ち時間を1/30以下にしたので紹介させて欲しい - DeLMO(identify)エンジニアブログ


       Google CloudBatch3 Google CloudBatch使 GPU GPU使Go  identify CTO@suthio identifyDeLMO service.delm0.jp   Google Cloud Platform
        Google Cloud Batchを使ってバッチの処理待ち時間を1/30以下にしたので紹介させて欲しい - DeLMO(identify)エンジニアブログ
      • Copilot+ PC の紹介 - News Center Japan

        ユスフ メディ (Yusuf Mehdi) エグゼクティブ バイス プレジデント 兼 コンシューマー チーフ マーケティング オフィサー ※本ブログは、米国時間 5 月 20 日に公開された “Introducing Copilot+ PCs” の抄訳を基に掲載しています。 マイクロソフトのイベントの基調講演のオンデマンド録画が、米国時間 5 月 20 日午後 2 時に公開される予定です。公開時点で、本ブログ記事のリンクの更新が行われます。 本日、マイクロソフトの新しいキャンパスで開催された特別なイベントにおいて、AI のために設計された新しいカテゴリーの Windows PC である Copilot+ PC (コパイロットプラス ピーシー) を世界に向けて紹介しました。 Copilot+ PC は、これまでで最も高速でインテリジェントな Windows PC です。驚異的な 40 TOP

          Copilot+ PC の紹介 - News Center Japan
        • 誰得なのか不明ですが2000円でCUDAを試してみました - Qiita


           @ixiv  GPGPU1GPUCUDA  20202011315GeForce GTC550Ti2000CUDAYOLOCUDAOpenCVObject Detection使  PCWEB
            誰得なのか不明ですが2000円でCUDAを試してみました - Qiita
          • GitHub - karpathy/LLM101n: LLM101n: Let's build a Storyteller

            What I cannot create, I do not understand. -Richard Feynman In this course we will build a Storyteller AI Large Language Model (LLM). Hand in hand, you'll be able create, refine and illustrate little stories with the AI. We are going to build everything end-to-end from basics to a functioning web app similar to ChatGPT, from scratch in Python, C and CUDA, and with minimal computer science prerequi

              GitHub - karpathy/LLM101n: LLM101n: Let's build a Storyteller
            • グラフニューラルネットワークの予測結果を解釈してみよう - NTT Communications Engineers' Blog


              NTT Advent Calendar 2023 11  & AI LLM1  LLM GNN GNNExplainer  GNN2 GNN GNN  
                グラフニューラルネットワークの予測結果を解釈してみよう - NTT Communications Engineers' Blog
              • 👀✨革命的なAI言語誕生!Pythonの35,000倍速いMojoが登場!|だいち

                Mojo 🔥— NEW Language for AI (FIRST Look)より概要Chris Lattner氏が開発したプログラミング言語MojoはPythonを基盤としており、Pythonのスピードの問題を解決し、CやC++のパフォーマンスとAIモデルのプログラマビリティを組み合わせた言語である。また、Pythonの互換性があるため、Pythonの知識を活かしてMojoを使用することができる。 ハイライト💻 MojoはPythonを基盤としており、Pythonのスピードの問題を解決し、CやC++のパフォーマンスとAIモデルのプログラマビリティを組み合わせた言語である。 💾 MojoはPythonと互換性があるため、Pythonの知識を活かしてMojoを使用することができる。 🚀 Mojoは並列処理をサポートし、複数コアでの処理が可能であり、パフォーマンスを向上させることがで

                  👀✨革命的なAI言語誕生!Pythonの35,000倍速いMojoが登場!|だいち
                • Google Colab で Llama 3 のファインチューニングを試す |npaka


                  Google ColabLlama 3 Google Colab Pro/Pro+A100 1. Llama 3Llama 3Meta 2. Colab (1) Colab  GPUA100 (2)  #  !pip install -U transformers accelerate bitsandbytes !pip install trl peft wandb !git clone https://github.com/huggingface/trl %cd trl(3)  
                    Google Colab で Llama 3 のファインチューニングを試す |npaka
                  • GaLore - 家庭用ハードウェアでの大規模モデルの学習|npaka


                     GaLore: Advancing Large Model Training on Consumer-grade Hardware 1. GaLoreGaLoreNVIDIA RTX 4090GPULlama7B 2. AdamGaLore
                      GaLore - 家庭用ハードウェアでの大規模モデルの学習|npaka
                    • NVIDIAの時価総額がIntelを上回る

                      NVIDIAの時価総額が、Intelを初めて大きく上回り、2510億米ドルに達した。NVIDIAの株価は記事執筆時点で420米ドル前後の高値をつけ、会計年度の初めから現在まで79%成長している。一方のIntelの株価は同期間で2.4%下落した。NVIDIAの時価総額は、半導体メーカーとしては、TSMCとSamsung Electronicsに次ぐ3位となっている。 NVIDIAは2020年5月に、2021年度第1四半期(2020年4月26日を末日とする)の業績を発表。売上高は30.8億米ドルで、前年同期比で39%増加、前期比では1%の減少だった。 世界中でステイホームが推奨あるいはルールになり、消費者が自宅で過ごす時間が長くなっていることから、ゲーム用ハードウェアの需要が伸びている。 NVIDIAが今回のマイルストーンを達成したのも、2020年秋に発売されるゲーム機に向けたGPU需要の楽観

                        NVIDIAの時価総額がIntelを上回る
                      • 「GeForce RTX 2080 SUPER」レビュー。RTX 2080 SUPERの実力をRTX 2080 TiおよびRTX 2080無印と比べてみた

                        RTX 2080 SUPERの実力をRTX 2080 TiおよびRTX 2080無印と比較 ZOTAC GAMING GeForce RTX 2080 SUPER Twin Fan Text by 宮崎真一 2019年7月23日22:00,NVIDIAのハイエンド向け新型GPU「GeForce RTX 2080 SUPER」(以下,RTX 2080 SUPER)搭載グラフィックスカードの販売が解禁となった。 RTX 2080 SUPERの仕様については,7月2日の発表時にレポートを掲載済みであるが,搭載カードのレビューに進む前に,軽くおさらいをしておこう。 ZOTAC GAMING GeForce RTX 2080 SUPER Twin Fan(型番:ZT-T20820F-10P) メーカー:ZOTAC Technology 販売代理店想定売価:9万1800円(※2019年7月23日現在)

                          「GeForce RTX 2080 SUPER」レビュー。RTX 2080 SUPERの実力をRTX 2080 TiおよびRTX 2080無印と比べてみた
                        • ChatGPTやStable Diffusionを生み出した「機械学習ソフトウェア」の10年間の流れを専門家が解説

                          近年は対話型AIのChatGPTや画像生成AIのStable Diffusionなど、さまざまなAIが登場して世間の注目を集めています。これらのAIを開発するために使用される機械学習ソフトウェアの過去10年の変遷について、半導体分野のアナリストであるディラン・パテル氏が解説しています。 How Nvidia’s CUDA Monopoly In Machine Learning Is Breaking - OpenAI Triton And PyTorch 2.0 https://www.semianalysis.com/p/nvidiaopenaitritonpytorch ◆TensorFlow対PyTorch 数年前の機械学習フレームワークエコシステムではGoogleのTensorFlowがフロントランナーであり、機械学習業界を支配する準備ができているように見えたとパテル氏は指摘。ま

                            ChatGPTやStable Diffusionを生み出した「機械学習ソフトウェア」の10年間の流れを専門家が解説
                          • Pythonでの機械学習の環境構築にAnacondaはいかがでしょうか - Qiita

                            主張 ほぼタイトルで完結しています。 Anacondaでは余計なパッケージが多すぎるという場合には、Minicondaで必要なパッケージだけをインストールすればいいと思います。 主張の理由 定期的に初心者向けにPythonの環境構築の記事が投稿されています。 そして、その多くで一緒にTensorflowかPytorchもインストールしていると思います。 環境構築で問題になるのがCUDAです。 CUDAのバージョンとTensorflowやPytorchのバージョンを正しく選んでインストールする必要があります。 これは、以下のような面倒くささがあると思います。 単純に対応するバージョンを調べてインストールするのが面倒くさい ついでにCuDNNのインストールも面倒くさい 迂闊にTensorflowやPytorchのバージョンを上げられない 複数のバージョンのTensorflowやPytorchを

                              Pythonでの機械学習の環境構築にAnacondaはいかがでしょうか - Qiita
                            • 自分の過去ツイートでrinna/japanese-gpt-neox-3.6bをfinetuningして「俺tter」を生成する|松xRのnote


                              WindowsLLMPEFTbitsandbytes npakaGoogle Colab LLMAI  使💡 @matsu_vrLLMrinna/japanese-gpt-neox-3.6b
                                自分の過去ツイートでrinna/japanese-gpt-neox-3.6bをfinetuningして「俺tter」を生成する|松xRのnote
                              • 「WSL 2」にCUDA対応など3つの新機能 ~「Windows 10」Build 20150がDevチャネルに。ISOイメージファイルも/「マップ」アプリの地図データは“TomTom”ベースへ

                                  「WSL 2」にCUDA対応など3つの新機能 ~「Windows 10」Build 20150がDevチャネルに。ISOイメージファイルも/「マップ」アプリの地図データは“TomTom”ベースへ
                                • Modular: Mojo🔥 - It’s finally here!

                                  Since our launch of the Mojo programming language on May 2nd, more than 120K+ developers have signed up to use the Mojo Playground and 19K+ developers actively discuss Mojo on Discord and GitHub. Today, we’re excited to announce the next big step in Mojo’s evolution: Mojo is now available for local download – beginning with Linux systems, and adding Mac and Windows in coming releases. While the Mo

                                    Modular: Mojo🔥 - It’s finally here!
                                  • 独自のデータセットでGPTのような大規模言語モデルを簡単にファインチューニングできるライブラリ「Lit-Parrot」をGoogle Cloud Platformで使ってみた

                                    特定の分野についての知識を増やす場合など、大規模言語モデルの出力を特定の方向に寄せる場合に利用されるのがファインチューニングで、これはモデルをゼロから構築するのに比べてはるかに少ないデータセット&はるかに少ないコストでトレーニングできる手法です。「Lit-Parrot」はファインチューニングを簡単に行えるようにしたライブラリとのことなので、実際に使ってどれくらい簡単なのかを試してみました。 lit-parrot/scripts at main · Lightning-AI/lit-parrot · GitHub https://github.com/Lightning-AI/lit-parrot How To Finetune GPT Like Large Language Models on a Custom Dataset - Lightning AI https://lightnin

                                      独自のデータセットでGPTのような大規模言語モデルを簡単にファインチューニングできるライブラリ「Lit-Parrot」をGoogle Cloud Platformで使ってみた
                                    • Google Colaboratory上でYOLOを動かして画像認識させてみた – Kazuki Room ~ モノづくりブログ ~

                                      Google ColaboratoryというGPUを無料で使えるサービスを使って画像認識させてみたいなと思ったので実際にやってみました。 日本語の情報はまだ少ないようなので少し苦労しましたがなんとかできました。 Colab上で画像認識させてみた結果がこちら。 人もコップも椅子も時計も全て認識してくれています。うん、いい感じです。 Google Colaboratory上の環境はこちらのページの通りに実施したらできました。ありがたやありがたや。今回は「darknet」というフレームワークを使用していますが、「Keras」を使用して動かす方法もあるようです。 ※以下のリンクではCUDA8.0をインストールするとなっていますが、この部分についてはインストールせずに既にインストールされている最新のCUDAをそのまま使用したほうがよさそうです。(2020/1/20追記) GitHub – ivang

                                        Google Colaboratory上でYOLOを動かして画像認識させてみた – Kazuki Room ~ モノづくりブログ ~
                                      • Google の FLAN-20B with UL2 を動かしてChatGPT APIのように使ってみる! - Qiita

                                        Google の FLAN-20B with UL2 を動かしてChatGPT APIのように使ってみる!言語モデルflanUL2YiTay こんにちは!逆瀬川 ( https://twitter.com/gyakuse )です! 今日は昨日公開されたFLAN-20B with UL2を使ってChatGPT APIのように会話をしてみたいと思います。 概要 Google BrainのYi Tayさんらが開発した新しく公開された言語モデルのFLAN-20B with UL2を使ってChatbotみたいな対話をしてみるテストです。 翻訳を組み合わせて実現します。デカ言語モデルが手元で動いてめちゃくちゃ嬉しさがあります。 Google Colab Colab ProのプレミアムGPUでないと動きません 使い方 ランタイム > ランタイムのタイプを変更からGPU / プレミアムとする A100 4

                                          Google の FLAN-20B with UL2 を動かしてChatGPT APIのように使ってみる! - Qiita
                                        • お絵描き補助AIアプリ『AI-Assistant』全体公開!|とりにく


                                          2024/5/3 2024/4/30fanboxgithub32024/5/3  DL https://drive.google.com/file/d/1DuKeDAgRbmOaaN6W0THEwBOrxBL0q708/view?usp=sharing URL https://www.dropbox.com/scl/fi/mrthkwbzcvcug21p19a0t/AI_Assistant.zip?rlkey=mfglok7a3eqwc3loe7bzzri0n&st=1ceftuja&dl=0 
                                            お絵描き補助AIアプリ『AI-Assistant』全体公開!|とりにく
                                          • Llama3,Phi-3などの対話型人工知能(大規模言語モデル)をパソコンで動かす - Qiita

                                            かつては大規模言語モデルは,メモリを大量に消費し,大量のGPUが必要なため個人レベルで動かすものではありませんでした.しかし,2024年にLlama3 7BやMixtral 8x7b, Phi-3 smallなどChatGPT-3.5レベルの能力を持ち軽量で無料の大規模言語モデルが登場してきました.それだけではなく,これらの大規模言語モデルをコマンド一つでインストールするが出来るようにもなりました.2024年から,大規模言語モデル(対話型人工知能)を自宅で気軽に動かせる時代になったと言えます. この記事に対話型人工知能をパソコンにインストールする方法とその結果を書きます. 環境 前提としている環境 私は人工知能の研究をしているため,すでにLinux(Debian 12)上でPython3とCUDAが動く環境を整えています.以下の記事はLinuxの使用を前提にしています. パソコンのスペック

                                              Llama3,Phi-3などの対話型人工知能(大規模言語モデル)をパソコンで動かす - Qiita
                                            • RTX 3070よりも性能は向上したが…… 「GeForce RTX 3070 Ti」は“Ti”に相応しいのか?

                                              RTX 3070よりも性能は向上したが…… 「GeForce RTX 3070 Ti」は“Ti”に相応しいのか?(1/4 ページ) 日本時間の6月10日22時、NVIDIAの新型GPU「GeForce RTX 3070 Ti」を搭載するグラフィックスカードの販売が解禁される。同社によると、想定販売価格は税込みで8万9980円からになるという。 →NVIDIAがデスクトップ向け「GeForce RTX 3080 Ti」「GeForce RTX 3070 Ti」を発表 6月3日から順次発売 →「GeForce RTX 3080 Ti」の国内想定価格は約17.6万円 「GeForce RTX 3070 Ti」は約9万円 GeForce RTX 3080 Ti Founders Editionに続き、ITmedia PC USERと筆者はNVIDIAが自社設計したグラフィックスカード「GeForc

                                                RTX 3070よりも性能は向上したが…… 「GeForce RTX 3070 Ti」は“Ti”に相応しいのか?
                                              • Pytorch-lightning+Hydra+wandbで作るNN実験レポジトリ - Higu`s diary

                                                Kaggle Advent Calender2020の 11日目の記事です。 昨日はhmdhmdさんのこちらの記事です! 2020年、最もお世話になった解法を紹介します - Qiita 明日はarutema47さんの記事です! (後ほどリンクはります) 本記事では、深層学習プロジェクトで使用すると便利なライブラリ、 Pytorch-lightningとHydraとwandb(Weights&Biases)について紹介したいと思います。 対象読者 Pytorchのボイラープレートコードを減らせないか考えている 下記ライブラリについては聞いたことあるけど、試すのは億劫でやってない 書いてあること 各ライブラリの役割と簡単な使い方 各ライブラリを組み合わせて使う方法 各ライブラリのリファレンスのどこを読めばよいか、更に勉強するにはどうすればよいか また、上記3つのライブラリを使用したレポジトリを

                                                  Pytorch-lightning+Hydra+wandbで作るNN実験レポジトリ - Higu`s diary
                                                • NVIDIA DockerイメージのGPGキー更新に関する備忘録 - OPTiM TECH BLOG

                                                  R&D チームの徳田(@dakuton)です。 今年のGWあたりにCUDAのGPG更新アナウンス(NVIDIA Technical Blog: Updating the CUDA Linux GPG Repository Key)がありました。記載に従い利用環境の反映作業をしてみたところ、特にDockerイメージ向けの反映については記事に触れられていない範囲でのハマリポイントがいくつかあることがわかったため、対策についてまとめておきます。 参考(GitHub issue) NVIDIA/nvidia-docker(Public GPG key error #1631) 影響を受けているプロジェクト例 TensorFlow (Tensorflow docker image has outdated keys #56085) TorchServe (Improvements to docker

                                                    NVIDIA DockerイメージのGPGキー更新に関する備忘録 - OPTiM TECH BLOG
                                                  • 「GeForce RTX 3090」レビュー。8Kでのゲームプレイを謳うRTX 30シリーズ最強GPUの実力をZOTAC製「RTX 3090 Trinity」で検証する

                                                    8Kでのゲームプレイを謳うRTX 30シリーズ最強GPUの実力は? GeForce RTX 3090 (ZOTAC GAMING GeForce RTX 3090 Trinity) Text by 宮崎真一 Ampereアーキテクチャによる新世代の幕開けとしては,十分なインパクトを残したNVIDIAの新型GPU「GeForce RTX 3080」(以下,RTX 3080)。その高性能ぶりは記憶に新しいが,GeForce RTX 30シリーズの最上位モデルとなる「GeForce RTX 3090」(以下,RTX 3090)の発売が始まり,レビューもようやく解禁となった。 RTX 3090とはどのようなGPUなのだろうか。今回は,ZOTAC Technology(以下,ZOTAC)製のグラフィックスカード「ZOTAC GAMING GeForce RTX 3090 Trinity」(以下,ZO

                                                      「GeForce RTX 3090」レビュー。8Kでのゲームプレイを謳うRTX 30シリーズ最強GPUの実力をZOTAC製「RTX 3090 Trinity」で検証する
                                                    • 独自路線を行く孤高のBlenderアニメーション作家 安田現象氏がクリエイター向けPC「raytrek」を検証

                                                      2021/04/21 PR 独自路線を行く孤高のBlenderアニメーション作家 安田現象氏がクリエイター向けPC「raytrek」を検証 [PR] セル調の3DCGと高度な演出による独自のアニメーション作品を作り続ける安田現象氏。モデリングからアニメーション、コンポジットまでを一人で行う同氏の制作スタイルが確立された背景と、使用するPCスペックのこだわりについて話をきいた。 TEXT_神山大輝/ Daiki Kamiyama(NINE GATES STUDIO) PHOTO_竹下朋宏/Tomohiro Takeshita INTERVIEW_阿部祐司/Yuji Abe(CGWORLD) INFORMATION 安田現象新設スタジオで求人中! 詳しくはこちら cgworld.jp/jobs/30622.html 「自分自身の作品をアニメ化したい」という想い 安田現象デモリール2020 CG

                                                        独自路線を行く孤高のBlenderアニメーション作家 安田現象氏がクリエイター向けPC「raytrek」を検証
                                                      • WhisperのモデルをONNXにする - TadaoYamaokaの開発日記

                                                        WhisperのモデルをONNXに変換する方法について記述する。 Whisperのモデル WhisperのモデルはPyTorchを使ってPythonで実装されている。 そのため、実行にはPyTorchをインストールしたPython環境が必要になる。 環境構築なしでスタンドアロンで利用できると用途が広がる。 また、アプリへの組み込みも行いやすくなる。 ONNXモデル ONNXは、ニューラルネットワークの標準ファイルフォーマットである。 モデルをONNXにすると、ONNX Runtimeなどの推論用のライブラリを使って推論できる。 推論用のライブラリは、組み込みで使うことを意図しているので、スタンドアロンのアプリに組み込むことができる。 ONNXへの変換 WhisperのモデルからONNXへの変換は、pytorch.onnxを使って行う。 ただし、Whisperは、デコーダのループ処理で、前の

                                                          WhisperのモデルをONNXにする - TadaoYamaokaの開発日記
                                                        • GCPでできるだけ安くディープラーニング


                                                          Google Colaboratory使Colab112GPU使GPU使 Google Cloud PlatformGCPGPUTesla T4112GCPGCP1 Google Cloud Platfor
                                                            GCPでできるだけ安くディープラーニング
                                                          • CUDA on WSL

                                                            » 1. NVIDIA GPU Accelerated Computing on WSL 2 v12.4 | PDF | Archive CUDA on WSL User Guide The guide for using NVIDIA CUDA on Windows Subsystem for Linux. 1. NVIDIA GPU Accelerated Computing on WSL 2 WSL or Windows Subsystem for Linux is a Windows feature that enables users to run native Linux applications, containers and command-line tools directly on Windows 11 and later OS builds. CUDA suppor

                                                            • AviUtlのフィルタ処理をGPU使用で高速化するプラグインが登場

                                                              1997年にリリースされた無料のフィルタリングツール「AviUtl」は、プラグインを導入することで高度な動画編集機能を獲得できるのが特徴です。そんなAviUltは基本的にCPUでフィルタ処理を行っているところを、GPUによる処理に切り替えるプラグインを導入することで処理を高速化することが可能です。 GPU化で処理を高速化するプラグインの1つが、柳氏の開発した「Boostプラグイン」です。 Aviutl Plugin 配布 Boost プラグイン : Aviutl研究所 https://aviutl.techblog.jp/archives/aviutl_plugin_boost.html 以下のムービーでBoostプラグインが解説されています。 Aviutl Plugin配布!AviutlをGPU動作化して超高速にするAviutl Boost! - ニコニコ動画 通常時だと65分44秒かか

                                                                AviUtlのフィルタ処理をGPU使用で高速化するプラグインが登場
                                                              • NVIDIA Releases Open-Source GPU Kernel Modules | NVIDIA Technical Blog

                                                                NVIDIA is now publishing Linux GPU kernel modules as open source with dual GPL/MIT license, starting with the R515 driver release. You can find the source code for these kernel modules in the NVIDIA/open-gpu-kernel-modules GitHub page This release is a significant step toward improving the experience of using NVIDIA GPUs in Linux, for tighter integration with the OS, and for developers to debug, i

                                                                  NVIDIA Releases Open-Source GPU Kernel Modules | NVIDIA Technical Blog
                                                                • YOLOv3+pythonで車載動画中のバイクを認識し動画にする - Qiita


                                                                  YOLOYOLOv3 使   YAEH()  youtube YOLO使YAEH
                                                                    YOLOv3+pythonで車載動画中のバイクを認識し動画にする - Qiita
                                                                  • JAXとPyTorch、どっちが速いのか検証してみた - まったり勉強ノート


                                                                    JAX使PyTorch  PyTorch JAXPyTorch2.2   JAXPyTorchSmooth Smith WatermanSmooth Smith Waterman JAXPyTorch
                                                                    • Xwin-LM-70B-V0.1をOpen Interpreterから使ってみる。

                                                                      はじめに 前回の記事で Xwin-LM-70B-V0.1 と Llama-2-70B の出力結果の比較しました。今回は Open Interpreter のバックエンドとして Xwin-LM-70B-V0.1 を使ってみます。 私の PC のスペック[1] i7 13700K 3090 24GB DDR5 128GB 準備 llama-cpp-python を CUDA を有効にしてインストールする。 sudo apt install -y build-essential cmake python3 python3-pip python-is-python3 \ && CUDA_PATH=/usr/local/cuda FORCE_CMAKE=1 CMAKE_ARGS='-DLLAMA_CUBLAS=on' \ pip install llama-cpp-python --force-re

                                                                        Xwin-LM-70B-V0.1をOpen Interpreterから使ってみる。
                                                                      • 「GeForce RTX 3080 Founders Edition」レビュー。Ampere世代のハイエンドGPUはRTX 2080 Tiをあらゆる面で圧倒する

                                                                        Ampere世代のハイエンドGPUはRTX 2080 Tiをあらゆる面で圧倒する GeForce RTX 3080 Founders Edition Text by 宮崎真一 2020年9月16日22:00,NVIDIAの新世代GPU「GeForce RTX 3080」(以下,RTX 3080)搭載のNVIDIA製グラフィックスカード「GeForce RTX 3080 Founders Edition」(以下,RTX 3080 Founders Edition)の性能に関する情報が解禁となった。 GeForce RTX 3080 Founders Edition メーカー:NVIDIA 価格:699ドル(約7万3900円,税別) 既報のとおり,RTX 3080は,Ampereアーキテクチャを採用したGPUで,従来の「GeForce RTX 2080 SUPER」(以下,RTX 2080 S

                                                                          「GeForce RTX 3080 Founders Edition」レビュー。Ampere世代のハイエンドGPUはRTX 2080 Tiをあらゆる面で圧倒する
                                                                        • Whisperを使ったリアルタイム音声認識と字幕描画方法の紹介 | さくらのナレッジ


                                                                          OBS WebSocket OBSWebSocketWebSocket使LANOBSAPI OBS-obs-websocketWebSocket使WebSocket使 Python PythonOBSWebSocket
                                                                            Whisperを使ったリアルタイム音声認識と字幕描画方法の紹介 | さくらのナレッジ
                                                                          • AIイラスト導入方法 ローカル環境で構築できる方法をわかりやすく解説 - 格安ガジェットブログ

                                                                            AIイラスト。文字通りAIによって生成されたイラストで、今や人間の絵師の立場を食いかねないほどに発展を見せている技術です。 敷居が高く思えるかもしれませんが、ミドル程度のゲーミングPCを持っている人であれば無料でも環境構築が可能なので、個人でも余裕で運用していくことが可能なものとなっています。 今回はそんなAIイラストのローカル環境構築方法を解説していきます。 必要なPCスペック 導入手順 必要なものをダウンロード、インストールしていく GitでAutomatic1111のダウンロードを行う 学習データのダウンロードを行う webui-user.batを実行 まとめ 必要なPCスペック Nvidia製のGPU VRAM 以上4GB 基本的にはこの条件を満たしたデスクトップパソコンであれば、普通に動くと思います。流石にグラボ以外骨董品を使っているようなあまりにも極端な構成だと駄目かもしれませ

                                                                              AIイラスト導入方法 ローカル環境で構築できる方法をわかりやすく解説 - 格安ガジェットブログ
                                                                            • 【SinGAN】たった1枚の画像から多様な画像生成タスクが可能に - Qiita

                                                                              はじめに 本記事はDeep learning論文紹介のAdvent Calender 2019の6日目の記事です。 本記事ではコンピュータビジョンのトップカンファレンスであるICCV2019でBest paperに選ばれたSin GANの論文について紹介し、公式のGitHubを色々触ってみようと思います。 SinGANは1枚の訓練データのみを学習に用いるので、気軽に画像生成を試すことができます(画像サイズにもよりますがGoogle colabratoryのGPUでおよそ1~5時間程度)。後半ではGoogle Colabratoryを用いて実際に画像生成を行っているのでぜひ試してみてください。 【SinGAN公式】 ・arxiv ・Github 【Qiitaの記事】 ・【論文解説】SinGAN: Learning a Generative Model from a Single Natura

                                                                                【SinGAN】たった1枚の画像から多様な画像生成タスクが可能に - Qiita
                                                                              • RWKVを論文と実装から読み解く

                                                                                RWKVとは 昨今GPTをはじめとしたtransformerベースの大規模言語モデルが流行しています.transformerの重要な要素であるSelf-Attentionは,長距離の依存関係を学習するできるというメリットがある一方で,シーケンス内のすべての要素と他のすべての要素との依存関係を計算するために,計算量とメモリ使用量がシーケンス長の二乗(つまり、トークンの数の二乗)に比例してしまうという問題があります. 一方でRNNベースのモデルは,メモリと計算要件の面で線形にスケールしますが、並列化と拡張性の制限からtransformerと同等の性能を達成することが困難です. そこで,transformerの効率的な並列学習と,RNNの効率的な推論の両方を兼ね備えたモデルとしてRWKV(Receptance Weighted Key Value)という新たなモデルアーキテクチャーが提案されまし

                                                                                  RWKVを論文と実装から読み解く
                                                                                • GeForce RTX 30-Series Tech SessionsでわかったAmpereが超進化した理由 (1/4)

                                                                                  CUDAコアが前世代に比べ2倍以上の増加し、RTコアもTensorコアも刷新されたGeForce RTX 30シリーズ。GeForce RTX 3080は9月17日より販売解禁となる。なお、写真のFounders Editionの国内正式販売はない 2020年9月2日、NVIDIAのCEO、ジェンスン・ファン氏は先日オンラインで開催した「GeForce Special Event」において、既存のGeForce RTX 20シリーズの性能をはるかに上回る(と主張する)「Ampereアーキテクチャー」と、それを採用した「GeForce RTX 30シリーズ」を発表した。非常に多くの内容を40分程度にまとめた超高濃度かつハイスピードなセッションだった。 今回はそのGeForce Special Eventに続き、プレス向けに開催された「GeForce RTX 30-Series Tech Se

                                                                                    GeForce RTX 30-Series Tech SessionsでわかったAmpereが超進化した理由 (1/4)