並び順

ブックマーク数

期間指定

  • から
  • まで

121 - 160 件 / 1472件

新着順 人気順

CUDAの検索結果121 - 160 件 / 1472件

  • JetsonにEdge TPUにM5StickV で、エッジAI用やるには何を選べばいいの? - masato-ka's diary


    1.   Jetson Nano AI AI使AI調 Android Thi
      JetsonにEdge TPUにM5StickV で、エッジAI用やるには何を選べばいいの? - masato-ka's diary
    • 生成AIは今までのAIと何が違うのか?なぜいま盛り上がっているのか?|梶谷健人 / 新著「生成AI時代を勝ち抜く事業・組織のつくり方」

      世界中で大きな盛り上がりを見せる「生成AI」。 生成AIを活用したChatGPTが史上最速で月間ユーザー数1億人を突破し、TIME誌の表紙を飾ったことは、その勢いを象徴する出来事だろう。 だが、ここで以下の2つの問いが浮かぶ。 生成AIは今までのAIと明確に何がちがうのか? なぜ今このタイミングで生成AIがここまで盛り上がっているのだろうか? この記事では上記2つの問いを海外のいくつかの記事を参考にしつつ解説していく。 生成AIと今までのAI技術との関係性まず生成AI技術とこれまでのAI技術との関係性を概観しておこう。 広い意味でのAI技術として、データの特徴を学習してデータの予測や分類などの特定のタスクを行う機械学習が生まれ、その中でデータの特徴をマシン自体が特定するディープラーニング技術が発展した。 そして、生成AIはこのディープラーニング技術の発展の延長上にある技術だと言える。 そし

        生成AIは今までのAIと何が違うのか?なぜいま盛り上がっているのか?|梶谷健人 / 新著「生成AI時代を勝ち抜く事業・組織のつくり方」
      • 音楽用低遅延リモートコミュニケーションサービス - レイテンシー撲滅委員会|Takumin

        このプロダクトを考えるにあたって、まず一番の敵を知らなければならない。戦う理由は何で、なぜそれが生じていて、どうやってそれを解決するのか。 プロダクト構想はこれ レイテンシーとの闘い「レイテンシー」= latency (遅延)とは、使われる場所によって意味が異なることもありますが、このプロダクトの開発で解決しようとしているレイテンシーとは、 インターネット経由で二人の演奏者がアンサンブルしようとしたときに、片方の演奏者が出した音がもう片方の演奏者に届くまでの時間と考えてください。 たとえば演奏者が隣にいるとこれはゼロ(厳密にはゼロじゃないけど、でもまあ感じない)。で、これがホールとかになると場合によっては数10ミリ(ミリは1,000分の1)秒となることもありますが、プロの演奏者は慣れてるのでなんとか合わせられる。 なぜホールだと数10ミリ秒かかるとかというと...音は1秒に340メートル(

          音楽用低遅延リモートコミュニケーションサービス - レイテンシー撲滅委員会|Takumin
        • 拡散モデルで将棋の方策を学習する - TadaoYamaokaの開発日記

          拡散モデルで、将棋の方策を学習できないか試してみた。 拡散モデル 拡散モデルは、高品質で多様なサンプルを生成できる生成モデルである。 昨年8月にStable Diffusionが公開されたことで注目を集めている。 拡散モデルは、確率微分方程式によって表される確率分布を近似するモデルで、モード崩壊を起こさず多様な分布を学習できるという特徴がある。 また、プロンプトと呼ばれるテキストにより条件付けを行い、テキストに従った画像を生成できる。 将棋の方策 将棋の方策は、座標と移動方向の組み合わせで表現でき、dlshogiで採用している表現方法では2187次元になる。 つまり、指し手は、局面によって条件づけられた2187次元の確率分布からサンプリングを行っていることになる。 拡散モデルの可能性 条件付けを行い高次元の確率分布からサンプリングを行うという仕組みは、将棋の方策においても適用できると考える

            拡散モデルで将棋の方策を学習する - TadaoYamaokaの開発日記
          • 時系列分析をお手軽に!機械学習ライブラリDartsの実演 - DATAFLUCT Tech Blog

            こんにちは! 以前にDartsという時系列分析に特化したpythonライブラリを紹介しました。 前編はこちら 今回は実際にDartsを動かしていきましょう。 Darts内にもデータセットがありますが、公式でも触れられているのであえて、外部のデータを参照してみましょう。導入編でも触れたアイスクリームの生産量の変化を推測したいと思います。 アイスクリームのデータセットはこちら 上記リンクの上部右側Downloadからcsvをダウンロードしてください。 Dartsのインストールは以下の1コマンドです。Windowsではデフォルトのコマンドプロンプトでうまくインストールが終了しなかったので、WSL環境などを推奨します。 $ pip install darts ARIMAで学習してみる バックテストでモデルの選定を行う RNNで共変量を扱ってみる まとめ ARIMAで学習してみる まずは、導入編で最

              時系列分析をお手軽に!機械学習ライブラリDartsの実演 - DATAFLUCT Tech Blog
            • PyTorchでGPUの計算時間を正しく計測する - まったり勉強ノート

              測定結果 結果として、間違った測定方法だとCPUとGPUを比較すると「1883倍速くなりました!」という主張をしてしまうことになります。ちなみにGPUで1000倍なんて数字が出てきたら確実にどこか間違えています。実際、今回のケースでは本当は「約59倍速くなりました!」というのが正しい結果になります。 torch.cuda.synchronize()とtorch.cuda.Eventを使った場合の違い 今回torch.cuda.synchronize()とtorch.cuda.Event の2種類を紹介しました。場合によっては使い分けをしたほうがいいのでこの二つの違いを説明していきます。 torch.cuda.synchronize() を利用した場合、簡単なので測定しやすいのでいいので、ぱっと測定したい場合はこちらの方法が楽でよいかと思います。ただ、こちらの方法はkernel関数の発行と測

              • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第17回:新技術をすぐ試せるComfyUIのインストール・使いかた (西川和久) | テクノエッジ TechnoEdge

                ComfyUIが流行ってる?Stable Diffusionで生成AI画像を作る時、もっとも一般的なインターフェースはAUTOMATIC1111だろう。デファクトスタンダードと言ってもいいほどで、検索すると、インストール方法や使い方など、それこそ山盛り出てくる。 ところが最近、ComfyUIがちょっとした人気だ。以前軽くご紹介したが、カスタムNodeを組み合わせ自由にWorkflowを構築できる結構マニアックなアプリなのに何故? ComfyUI。カスタムNodeを接続してWorkflowを作る…と結構マニアックなアプリ。これは筆者が日頃使っているWorkflowの1つこれには理由があり、12月頃から以降、Stable Video Diffusion、Kohya's HiresFix、SDXL Turbo、LCM、FaceID、PhotoMaker、InstantID、様々なControlN

                  生成AIグラビアをグラビアカメラマンが作るとどうなる?第17回:新技術をすぐ試せるComfyUIのインストール・使いかた (西川和久) | テクノエッジ TechnoEdge
                • GPUDirect SQL on NFS-over-RDMAを試す - KaiGaiの俺メモ

                  タイトルでほぼほぼ出オチですが、先日、NVIDIAからCUDA Toolkit 11.4と共にリリースされた新機能GPUDirect Storage 1.0のドキュメントを読んでいると、面白い記述を見つけた。 曰く、MOFEDドライバ5.3以降と、Mellanox Connect-X4/5の組み合わせで、NFS-over-RDMAとGPUDirect Storageを組み合わせ、リモートのNFS区画からローカルのGPUへと直接のデータ転送を行う事ができるようになる、と。 14.10. NFS Support with GPUDirect Storage This section provides information about NFS support with GDS. 14.10.2. Install GPUDirect Storage Support for the NFS Cli

                    GPUDirect SQL on NFS-over-RDMAを試す - KaiGaiの俺メモ
                  • Raspberry Pi 3 B+ & PyTorchの深層学習で、カメラ映像内の複数物体をリアルタイム分類 - Qiita

                    Raspberry Pi 3 B+ & PyTorchの深層学習で、カメラ映像内の複数物体をリアルタイム分類PythonOpenCVRaspberryPiDeepLearningPyTorch 大学の授業関係でラズパイ3B+とpicameraをゲット。暇なので、ラズパイに深層学習を用いた分類をさせてみようと思い立ちました。ただ、前もって撮った写真を分類させるのではなく、picameraからのリアルタイムの映像内の物体を分類させ、いい感じに表示させます。 学生レベルかもしれませんが、一部分でも参考になれば幸いです。 思い描いたこと 「固定されたpicameraの視野内に複数の私物を置くと、それをリアルタイムに分類し、表示する機能」をラズパイ内に作ってみようと思いました。 具体的には、背景差分(背景画像と変化した部分を抜き出す手法)で物体を抽出し、PyTorch [パイトーチ](Keras,

                      Raspberry Pi 3 B+ & PyTorchの深層学習で、カメラ映像内の複数物体をリアルタイム分類 - Qiita
                    • AI時代に一人勝ち。NVIDIAの「CUDA」がIntelやAppleを蹴散らし業界の“実質的なスタンダード”になった背景を中島聡が徹底解説 - まぐまぐニュース!

                      空前のAIブームの中にあって、その開発の現場で「一人勝ち」とも言うべき圧倒的なシェアを誇っているNvidia(エヌビディア)のGPU向け開発環境「CUDA」。IntelやAppleといったライバルたちを尻目に、いかにしてCUDAはトップに登り詰めたのでしょうか。今回のメルマガ『週刊 Life is beautiful』では世界的エンジニアとして知られる中島聡さんが、CUDA誕生の経緯から業界の「事実上の標準」となるまでを詳しく解説。さらにMicrosoftが5月20日に発表した「Copilot+PC」に関して、中島さんが注目したポイントを記しています。 ※本記事のタイトル・見出しはMAG2NEWS編集部によるものです/原題:NvidiaのCUDAが今の地位を築いた経緯 プロフィール:中島聡(なかじま・さとし) ブロガー/起業家/ソフトウェア・エンジニア、工学修士(早稲田大学)/MBA(ワシ

                        AI時代に一人勝ち。NVIDIAの「CUDA」がIntelやAppleを蹴散らし業界の“実質的なスタンダード”になった背景を中島聡が徹底解説 - まぐまぐニュース!
                      • XboxでStable Diffusionを動作させる猛者が登場、ONNX利用でPythonへの依存をゼロにしてNVIDIAのCUDA・AMDのROCm・AppleのCoreML・QualcommのQNN・MicrosoftのDirectMLでも動いてWindows・Linux・macOS・Android・iOS・WebAssemblyなど全てOK、ほぼあらゆるアプリケーションへの統合が可能に

                        Stable Diffusionは文字や画像を元に新たな画像を生成してくれるAIですが、実行環境としてPythonが必要とされてきました。そんな中、ONNXモデルおよびONNX Runtimeの活用とC++での実装でPythonへの依存をなくし、Xbox上で動作させることに成功した猛者が登場しました。 Stable Diffusion running on Xbox Series X and S for the first time - YouTube 左端の大きなアイコンが今回作成された「Unpaint」というアプリ。記事作成時点ではストアには存在せず、インストールするにはユーザーが自分でパッケージに署名する作業が必要になります。Xbox Series XおよびXbox Series Sのどちらでも動作可能とのこと。左の大きな画面にXbox Series Xの出力が表示されています。 起

                          XboxでStable Diffusionを動作させる猛者が登場、ONNX利用でPythonへの依存をゼロにしてNVIDIAのCUDA・AMDのROCm・AppleのCoreML・QualcommのQNN・MicrosoftのDirectMLでも動いてWindows・Linux・macOS・Android・iOS・WebAssemblyなど全てOK、ほぼあらゆるアプリケーションへの統合が可能に
                        • 西川善司の3DGE:NVIDIAが投入する20 TFLOPS級の新GPU「A100」とはいったいどのようなGPUなのか?

                          西川善司の3DGE:NVIDIAが投入する20 TFLOPS級の新GPU「A100」とはいったいどのようなGPUなのか? ライター:西川善司 カリフォルニア州の自宅で撮影したビデオで基調講演を行ったJensen Huang氏 去る2020年5月14日,NVIDIAは,同社CEOのJensen Huang氏によるオンライン基調講演で,新しい「Ampere」アーキテクチャ採用の新GPU「A100」を発表した。 Ampereとは,電流量の単位である「アンペア」の語源となったフランスの物理学者アンドレ=マリ・アンペール(André-Marie Ampère)にちなんだ開発コードネームだ。NVIDIAは近年,新しいGPUアーキテクチャの開発コードネームに,歴史に名を残した科学者の名を採用している。GeForce RTX 20シリーズの「Turing」や,その前世代の「Volta」も同様だ。 SXM4

                            西川善司の3DGE:NVIDIAが投入する20 TFLOPS級の新GPU「A100」とはいったいどのようなGPUなのか?
                          • 日本語BERTモデルをPyTorch用に変換してfine-tuningする with torchtext & pytorch-lightning - radiology-nlp’s blog

                            TL;DR ①TensorFlow版訓練済みモデルをPyTorch用に変換した (→方法だけ読みたい方はこちら) ②①をスムーズに使うための torchtext.data.Dataset を設計した ③PyTorch-Lightningを使ってコードを短くした はじめに 日本語Wikipediaで事前学習されたBERTモデルとしては, 以下の2つが有名であり, 広く普及しています: SentencePieceベースのモデル (Yohei Kikuta さん提供) TensorFlow版 Juman++ベースのモデル (京大黒橋研提供) TensorFlow版 PyTorch版(Hugging Face transformers準拠) このうち, SentencePieceベースのものは現在TensorFlow版のみの提供となっており, PyTorch版は存在しません。 そのため, 私のよう

                              日本語BERTモデルをPyTorch用に変換してfine-tuningする with torchtext & pytorch-lightning - radiology-nlp’s blog
                            • Google ColabとVSCodeを用いた分析環境運用方法 〜kaggle Tipsを添えて〜 - ギークなエンジニアを目指す男

                              こんにちは。takapy(@takapy0210)です。 本エントリは下記イベントでLTした内容の元に、補足事項やコードスニペットなどをまとめたものになります。 kaggle-friends.connpass.com ちなみに今回LTしようと思ったきっかけは以下のような出来事からだったので、みなさんのTipsなども教えていただけると嬉しいです! 情報出回ってる感あるけど、colab pro × vscode ssh のオレオレ運用方法を晒すことにより、もっと良い方法のフィードバックもらえるのではドリブンでLTするのはありなのかもしれない・・・?— takapy | たかぱい (@takapy0210) 2021年8月1日 LT資料 当日みなさんから頂いたコメント 環境構築手順 ngrokアカウント作成と認証キーの取得 ColabにGoogleドライブを接続、ngrok、sshサーバー起動

                                Google ColabとVSCodeを用いた分析環境運用方法 〜kaggle Tipsを添えて〜 - ギークなエンジニアを目指す男
                              • Google Colab で PEFT による大規模言語モデルのファインチューニングを試す|npaka

                                「Google Colab」で 「PEFT」による大規模言語モデルのファインチューニングを試したので、まとめました。 1. PEFT「PEFT」(Parameter-Efficient Fine-Tuning)は、モデルの全体のファインチューニングなしに、事前学習済みの言語モデルをさまざまな下流タスクに適応させることができるパッケージです。 大規模言語モデルのファインチューニングは、多くの場合、法外なコストがかかりますが、「PEFT」は少数のパラメータのみをファインチューニングするため、計算コストとストレージ コストが大幅に削減でき、さらには、完全なファインチューニングに匹敵するパフォーマンスを実現します。 現在サポートしている手法は、次の4つです。 ・LoRA ・Prefix Tuning ・P-Tuning ・Prompt Tuning 2. Colabでの実行Google Colab

                                  Google Colab で PEFT による大規模言語モデルのファインチューニングを試す|npaka
                                • ゼロから始めるPaperspace Gradient【Google Colab代替サービス】 - Qiita

                                  はじめに こんにちは、kunishouです。先月2022年9月の末にGoogle Colabがサービス内容の大幅な変更を実施し、従来は無制限でGPUを使用できていたものが、クレジット制に移行しました。この変更を受けてこれまでGoogle Colabを利用してKaggleに取り組んできたり、Stable Diffusionなどでイラスト自動生成の実験をしてきた多くの方々から悲痛な声が聞こえてきました。そこで、本記事では 『Paperspace Gradient』というGoogle Colabに類似したクラウドGPU開発環境を定額で利用できるサービス を見つけたので、このサービスの詳細や使い方、使ってみた感想を紹介したいと思います。また、Paperspace Gradientはストレージ容量が少ない(Growthプランで50GB)という欠点がありますが、これをカバーする手段として インスタンス

                                    ゼロから始めるPaperspace Gradient【Google Colab代替サービス】 - Qiita
                                  • 安定期に入っている「機械学習OSS」だからこそ貢献しやすい 実績やキャリアにつなげるために大切な、知識や実装の可視化

                                    「つよいエンジニア」になるためのオープンソースの使い方をはじめ、OSSへの貢献を推奨している企業のエンジニア文化や、コミッター視点からみたOSSの未来について話す「TECH HILLS~まつもとゆきひろ氏と考える つよいエンジニアになるためのオープンソースの使い方~」。ここでキャディ株式会社の河合氏が登壇。機械学習OSSの現状と未来について話します。 自己紹介 河合俊典氏:「機械学習OSSの変遷と未来」と題して発表します。「ばんくし」として活動しています。今、キャディという小さい製造業向けのITベンチャーで機械学習とかデータサイエンスをやるチームを立ち上げて、そこでリーダーをやっています。 前職はM3という医療ITの会社ですが、そこのフェローをやらせてもらっています。私は“ギルド”と呼んでいますが、趣味でそういった開発が好きな人で集まって開発をするチームを組んでいて、そこの主宰もやっていま

                                      安定期に入っている「機械学習OSS」だからこそ貢献しやすい 実績やキャリアにつなげるために大切な、知識や実装の可視化
                                    • ポータブルSSD並の外付けGPUが登場。中はGeForce RTX 3050を搭載。

                                      ポータブルSSD並の大きさの外付けGPUが登場。中身はGeForce RTX 3050を搭載 外付けGPUについてはThunderbolt3など高速な通信規格の登場によって一定の存在感を示し始めており、最近ではGeForce RTX 3090やRTX 4090などを搭載した外付けGPUなども登場しています。ただ、これらの製品はデスクトップの代わりとしてノートPCを使う人向けで気軽に持ち運びができる大きさではありませんでしたが、ADLinkと呼ばれるエンタープライズ向け製品を販売する会社から、ポータブルSSD並の大きさにGeForce RTX 3050を詰め込んだ、ポータブル外付けGPUが登場しました。 この製品はPocket AIと言う製品名で登場しており、中身にはNVIDIAのエンタープライズ向けGPU、A500 GPUが搭載されています。ただ、このA500 GPUの仕様はノートPC向け

                                        ポータブルSSD並の外付けGPUが登場。中はGeForce RTX 3050を搭載。
                                      • もうすぐ実写AITuber登場。Stable Diffusionでリアルタイム画像生成をしてみた | さくらのナレッジ

                                        こんにちは、テリーです。ChatGPTに並んで進化の激しい「画像生成AI」を使ってみたことはありますか?ほしい画像を文章で指定すると、それに沿った画像を出力するAIです。かなりの計算量を必要とするため、画像1枚を出力するのに10~60秒かかりますが、世界中の技術者たちがより速く出力する方法を模索して、今まさに日進月歩の進化の最中です。 画像生成AIにもたくさんの種類があり、「Midjourney(ミッドジャーニー)」「DALL・E2(ダリツー)」「Stable Diffusion(ステーブルディフュージョン)」「Adobe Firefly(ファイアフライ)」の4つが特に有名です。この中で「Stable Diffusion」はオープンソースかつ商用利用可能なため、できたばかりのホットな関連技術を取り入れた使い方や、学習済みモデルの差し替え、自作モデルの生成など、自分好みの調整とカスタマイズの

                                          もうすぐ実写AITuber登場。Stable Diffusionでリアルタイム画像生成をしてみた | さくらのナレッジ
                                        • NVIDIA CUDAがWindows Subsystem for Linux上で利用可能に

                                            NVIDIA CUDAがWindows Subsystem for Linux上で利用可能に
                                          • NVIDIA,次世代GeForce「GeForce RTX 4090」と「GeForce RTX 4080」を発表。前世代から2〜4倍の高速化を実現

                                            NVIDIA,次世代GeForce「GeForce RTX 4090」と「GeForce RTX 4080」を発表。前世代から2〜4倍の高速化を実現 編集部:小西利明 米国時間2022年9月20日,NVIDIAは,GPUとAI関連の開発者向けイベント「GTC 2022」の基調講演で新世代GPU「GeForce RTX 40」シリーズの製品として,「GeForce RTX 4090」「GeForce RTX 4080」を発表した。 GeForce RTX 4090を披露する,NVIDIA CEOのJensen Huang氏 価格は,GeForce RTX 4090が1599ドルからで,10月12日に発売。GeForce RTX 4080は,グラフィックスメモリ容量12GBモデルと16GBモデルをラインナップして,12GBモデルは899ドルから,16GBモデルは1199ドルからとなっている。

                                              NVIDIA,次世代GeForce「GeForce RTX 4090」と「GeForce RTX 4080」を発表。前世代から2〜4倍の高速化を実現
                                            • fast.ai - Mojo may be the biggest programming language advance in decades

                                              I remember the first time I used the v1.0 of Visual Basic. Back then, it was a program for DOS. Before it, writing programs was extremely complex and I’d never managed to make much progress beyond the most basic toy applications. But with VB, I drew a button on the screen, typed in a single line of code that I wanted to run when that button was clicked, and I had a complete application I could now

                                                fast.ai - Mojo may be the biggest programming language advance in decades
                                              • 非同期と並列 / morrita - Message Passing

                                                karino2 が 並列プログラムから見たFuture というビデオを作って公開していたので、引っ越しの荷造りをしながら眺めた。 長いのでここにざっくりとした主張をまとめると: Future/Promise (およびその後釜の async/await) は非同期プログラミングで callback hell にならない発明という見方をされているが、 そもそもなぜ callback hell が必要だったかの時代背景が十分に理解されていない。 背景の一つはブラウザ JavaScript のプログラミングモデルにシングルスレッド・ノンブロッキング(イベントループ)という制限があったから。 これは(特にフロントエンド開発者の間では)よく理解されている。 もう一つの視点は SEDA みたいなマルチスレッド・ノンブロッキング環境の必要性で、 こっちはいまいち広く理解されていないように思える。 結果とし

                                                  非同期と並列 / morrita - Message Passing
                                                • 深層学習モデルの実装を爆速にするVSCodeの設定メモ - May the Neural Networks be with you


                                                  @shunk031    VSCode GPU VSCode Python: Python GPU  
                                                    深層学習モデルの実装を爆速にするVSCodeの設定メモ - May the Neural Networks be with you
                                                  • 1つの大きなLLM(大規模言語モデル)を複数のGPUで力を合わせて動かそう | IIJ Engineers Blog

                                                    地方拠点の一つ、九州支社に所属しています。サーバ・ストレージを中心としたSI業務に携わってましたが、現在は技術探索・深堀業務を中心に対応しています。 2018年に難病を患ったことにより、定期的に入退院を繰り返しつつ、2023年には男性更年期障害の発症をきっかけに、トランスジェンダーとしての道を歩み始めてます。 LLM群雄割拠の時代 昨今、ローカルGPUで駆動できるようなLLM(大規模言語モデル)もかなり増えてきて、キャッチコピー的に「ついに我が家にもGPT-4が!」とか言われるようになってまいりました。パラメータ規模で言えば70億~130億(7B-13B)パラメータ、700億(70B)パラメータ、1400億(140B)パラメータあたりのモデルが活発にリリースされているように見受けられます。 大きなモデルをGPU寄せ集めしつつ遊びたい! しかしながら、コンシュマー向けのGPUにおいては、7B

                                                      1つの大きなLLM(大規模言語モデル)を複数のGPUで力を合わせて動かそう | IIJ Engineers Blog
                                                    • Stable DiffusionをDockerで動かす

                                                      > wsl # wslを起動してshellにはいる $ wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin $ sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600 $ wget https://developer.download.nvidia.com/compute/cuda/11.7.1/local_installers/cuda-repo-wsl-ubuntu-11-7-local_11.7.1-1_amd64.deb $ sudo dpkg -i cuda-repo-wsl-ubuntu-11-7-local_11.7.1-1_amd64.

                                                        Stable DiffusionをDockerで動かす
                                                      • NVIDIA,新世代GPU「GeForce RTX 30」シリーズを発表。第1弾の「GeForce RTX 3080」は9月17日発売で税別約11万円前後

                                                        NVIDIA,新世代GPU「GeForce RTX 30」シリーズを発表。第1弾の「GeForce RTX 3080」は9月17日発売で税別約11万円前後 編集部:小西利明 2020年9月2日,NVIDIAは,独自開催のオンラインイベント「GeForce Special Event」で,Ampereアーキテクチャを採用する新型GPU「GeForce RTX 30」シリーズの製品として,「GeForce RTX 3080」と「GeForce RTX 3070」,および「GeForce RTX 3090」を発表した。 GeForce RTX 3080搭載カードを披露するNVIDIAのCEOであるJensen Huang(ジェンスン・フアン)氏 搭載グラフィックスカードのメーカー想定売価と発売時期は,GeForce RTX 3080が10万9800円で9月17日,GeForce RTX 3070

                                                          NVIDIA,新世代GPU「GeForce RTX 30」シリーズを発表。第1弾の「GeForce RTX 3080」は9月17日発売で税別約11万円前後
                                                        • 日本語特化型の大規模言語モデル、OpenCALMとrinna/japanese-gpt-neox-3.6bの検証 - Qiita

                                                          日本語特化型の大規模言語モデル、OpenCALMとrinna/japanese-gpt-neox-3.6bの検証自然言語処理検証モデル評価ChatGPT大規模言語モデル 目次 はじめに モデルの概要 検証環境 導入方法:OpenCALM 検証:OpenCALM 考察:OpenCALM Instruction Tuning 導入方法:rinna 検証:rinna 考察:rinna おわりに はじめに この記事はCyberAgentが公開した日本語特化のLLM(大規模言語モデル)、OpenCALMと、株式会社rinnaが公開した日本語特化のLLM、japanese-gpt-neox-3.6b/japanese-gpt-neox-3.6b-instruction-sft を検証した記事です。 色んなプロンプトを与えて、どのように出力するか。 そして素の大規模言語モデルがどのような出力をしていて、

                                                            日本語特化型の大規模言語モデル、OpenCALMとrinna/japanese-gpt-neox-3.6bの検証 - Qiita
                                                          • グリーンバックはもういらない!?Background Mattingでどこでも合成(Windows10、Python 3.6) - Qiita

                                                            グリーンバックはもういらない!?Background Mattingでどこでも合成(Windows10、Python 3.6)Python画像処理CUDA機械学習DeepLearning はじめに Zoomでバーチャル背景が流行っていますね。グリーンバックを必要とせずに一枚の背景画像から人物を切り抜き、ピクセルレベルで違和感なく合成できるBackground Mattingをやってみました。CPUでも動くよ。 システム環境 Windows10(RTX2080 Max-Q、i7-8750H、RAM16GB) Anaconda 2020.02 Python 3.6 CUDA 10.0 cuDNN 導入 Background-Mattingからクローンします。 back-matting環境を作ります。

                                                              グリーンバックはもういらない!?Background Mattingでどこでも合成(Windows10、Python 3.6) - Qiita
                                                            • 線画から疑似3D画像を出力するアプリ『Line2Normalmap』&それをライティングするアプリ『NormalmapLighting』公開!|とりにく


                                                              2024/04/06 2024/4/3fanboxgithub32024/04/06 DLhttps://drive.google.com/file/d/1_LPHAFgs4lzDYGdZmv23aVDiTMnV9Y3t/view?usp=sharing   (2vXpSwA7) CUDAGPUPC  PC AMD Ryzen 7 5800HS 16GB 512GB RTX
                                                                線画から疑似3D画像を出力するアプリ『Line2Normalmap』&それをライティングするアプリ『NormalmapLighting』公開!|とりにく
                                                              • はじめての自然言語処理 Sentence BERT による類似文章検索の検証 | オブジェクトの広場


                                                                1 BERT BERT  Hagging Face Transformers  Sentence BERT  Poor Man's BERT   18  2021.12.21  1.   Sentence BERT 1 Sentence BERT 
                                                                  はじめての自然言語処理 Sentence BERT による類似文章検索の検証 | オブジェクトの広場
                                                                • [インタビュー]西 和彦氏に聞く「次世代MSX」とは何なのか――目指すのは,ユーザが自分で作り出す“遊び”の世界

                                                                  [インタビュー]西 和彦氏に聞く「次世代MSX」とは何なのか――目指すのは,ユーザが自分で作り出す“遊び”の世界 編集部:早苗月 ハンバーグ食べ男 カメラマン:永山 亘 Microsoftとアスキー(当時)によって制定された「MSX」規格最初のマシン「ML-8000」が三菱電機から発売されたのは,今から40年前である1983年のこと。 日本をはじめ,世界各国(とくに北米や欧州の8bit PCの進出が鈍かったソビエト連邦や中東など)で一世を風靡したMSXシリーズだが,家庭用コンピュータやゲーム機が高性能化していく1990年代に姿を消していった。2006年にFPGAでMSX2を再現した「1chip MSX」(関連記事),2020年にスペインのデベロッパによるRaspberry PI 3B+ベースの「MSXVR」が発売されるなど,復古の動きもあったが,いずれも小規模なものに留まっている。 Mic

                                                                    [インタビュー]西 和彦氏に聞く「次世代MSX」とは何なのか――目指すのは,ユーザが自分で作り出す“遊び”の世界
                                                                  • LlamaIndexを使ってローカル環境でRAGを実行する方法 - 電通総研 テックブログ

                                                                    こんにちは。電通総研コーポレート本部システム推進部の山下です。 最近はChatGPTなどのLarge Language Model(LLM)を利用したAIが話題ですね。 そのLLMを応用したRetrieval-Augmented Generation(RAG)という技術があります。 これは、LLMに文書検索などを用いて関連する情報を与えて回答させることで、 LLMが知識として持っていない内容を回答させたり誤った情報を答えてしまうハルシネーションを抑止する技術です。 今回はこのRAGをLlamaIndexというライブラリを使ってローカル環境で実装する方法について紹介します。 なぜローカル環境でLLMを利用したいのか 大変便利なツールのLLMですが、利用が難しいこともあります。 例えば、機密情報を取扱いたい、外部インターネットへの接続に制限が掛かっているといった場合です。 最終的にOpenAI

                                                                      LlamaIndexを使ってローカル環境でRAGを実行する方法 - 電通総研 テックブログ
                                                                    • 自社OCRエンジン「NineOCR」の学習効率化のため SageMaker Training を導入した話 - Sansan Tech Blog

                                                                      はじめに NineOCR とは NineOCR が抱える課題 Amazon SageMaker Training とは SageMaker Training の始め方 事前準備 AWS が提供しているコンテナイメージを拡張する方法 独自のコンテナイメージに SageMaker Training Toolkit をインストールする方法 スクラッチでコンテナイメージを作成する方法 まとめ 学習ジョブの実行 学習結果の確認 終わりに はじめに こんにちは、研究開発部の石井です。 本エントリーでは、弊社の OCR エンジン「NineOCR」の開発フローに SageMaker Training を導入した話を紹介します。 NineOCR とは NineOCR は Sansan が独自に開発した名刺特化の OCR エンジンです。 名刺をデータ化するフローの中で実際に活用されており、タスクの高速化・高精

                                                                        自社OCRエンジン「NineOCR」の学習効率化のため SageMaker Training を導入した話 - Sansan Tech Blog
                                                                      • 大規模言語モデル(LLM)の作り方 GPT-NeoX編 Part 1

                                                                        はじめに Turing 株式会社のリサーチチームでインターンをしている東京工業大学 B4 の藤井(@okoge_kaz)です。 大規模モデルへの注目の高さを肌で感じる今日このごろですが、事前学習の知見については依然として十分に共有されているとは言い難いと個人的に感じています。 Turing株式会社では、次世代の自動運転技術を支える技術の1つとして大規模言語モデルに注目しており、独自に研究開発を行っています。今回は大規模言語モデルを学習する際、用いるライブラリ候補の1つに上がるであろうGPT-NeoXについて解説します。 以下で環境構築方法、学習を行う方法などについて詳しく解説します。 GPT-NeoXとは EleutherAIが管理しているNIDIA/Megatron-LM ベースの大規模言語モデル(Large Language Model: LLM)を学習するためのライブラリです。 Mi

                                                                          大規模言語モデル(LLM)の作り方 GPT-NeoX編 Part 1
                                                                        • NVLink BridgeでGPUを繋いでも1GPUにはなりません | HPCシステムズ Tech Blog

                                                                          『NVLink Bridgeで複数GPUを繋いだら、それらが1GPUとして扱えるようになるんでしょ?』という誤解をされているお客様をしばしばお見受けいたします。こちらの記事では、それが誤解であること、また、SLIやUnified Memoryといった関連する情報についても整理して解説いたします。間違った期待を抱いて失敗しないように、正しい理解を深めていきましょう。 GPUのメモリ空間は他デバイスから隔絶されています GPU上には演算するためのプロセッサと、データを一時的に置いておくためのメモリ(VRAM)が搭載されています。GPUのメモリを、CUDAで書かれたプログラムから利用するには、cudaMallocでメモリ領域を確保し、cudaMemcpyを使ってホスト(CPU側)のメモリとデータの送受信を行い、GPU上で演算kernelとする関数(以下、GPU-Kernel)を呼び出し、最後にc

                                                                            NVLink BridgeでGPUを繋いでも1GPUにはなりません | HPCシステムズ Tech Blog
                                                                          • 実写をアニメ風に変換してくれるAnimeGANやーる(Windows10、Python3.6) - Qiita

                                                                            はじめに 実写をアニメ風に変換してくれるAnimeGANをやってみました。 システム環境 Windows10(RTX2080 Max-Q、i7-8750H、RAM16GB) Anaconda 2020.02 Python 3.6 CUDA 9.0 導入 AnimeGANをクローンします。 animegan用の環境を作成します。 $ conda create -n animegan python=3.6 $ conda activate animegan $ pip install tensorflow-gpu==1.8.0 $ pip install tqdm $ pip install scipy $ pip install opencv-python $ cd AnimeGAN-master AnimeGAN-masterにdatasetを置きます。 Haoyao-styleの中身をc

                                                                              実写をアニメ風に変換してくれるAnimeGANやーる(Windows10、Python3.6) - Qiita
                                                                            • スーパーコンピューターで日本がトップに立ち続けていたら今ブームのAIに繋..

                                                                              スーパーコンピューターで日本がトップに立ち続けていたら今ブームのAIに繋がったのか? それともスパコンとAIは関係ない? 脱Android⁠⁠、Huaweiが独自OS「HarmonyOS NEXT」てのがニュースなったけど これもスパコン技術が応用されてそこから生まれてたりするの? スパコン予算をすべてに優先してたら日本産独自OSとか日本産AIに繋がってたんだろうか? つながらない OSはもうぜんぜんまったく完璧に関係ないのでAIについてだけ説明する まず2010年代に始まった第3次AIのブームはソフトウェアというかアルゴリズムのブレークスルーがきっかけ カナダのYoshua Bengio、Geoffrey Hinton、Yann LeCunの3人がディープニューラルネットワークに関する発見をしたこと 3人はこの業績で「ディープニューラルネットワークがコンピューティングの重要な要素となるた

                                                                                スーパーコンピューターで日本がトップに立ち続けていたら今ブームのAIに繋..
                                                                              • llama2のファインチューニング(QLORA)のメモ|Kan Hatakeyama

                                                                                2023/11/13追記以下の記事は、Llama2が公開されて数日後に書いた内容です。 公開から数ヶ月経った23年11月時点では、諸々の洗練された方法が出てきていますので、そちらも参照されることをおすすめします。 (以下、元記事です) 話題のLamma2をファインチューニングします。 QLoRAライブラリを使うパターンと、公式推奨の2つを試しました。前者が個人的にはオススメです。 前提Hugging faceで配布されている公式のモデルが必要です。以下を参考に、ダウンロードしておきます。 データセット作成 (7/20 15:20追記 設定ミスってたので修正しました) test.jsonを適当に作ります。 [ { "input": "", "output": "### Human: 富士山といえば?### Assistant: なすび" }, { "input": "", "output":

                                                                                  llama2のファインチューニング(QLORA)のメモ|Kan Hatakeyama
                                                                                • Pythonで基礎から機械学習まとめ - karaage. [からあげ]

                                                                                  はじめに 「基礎から機械学習をちゃんと理解したいな」と思うことがあったので、学んだことを自分なりに整理してアウトプットしていきます。基本的には、自分の勉強のため(アウトプットが一番理解が深まると思っているので)ですが、私のような初学者のメモでも、同じような他の初学者の役に立つこともあるのではないかと期待しております。 記事やコードは、修正のリクエストを受けやすいようにQiitaとGitHubをメインにアップしていきます。私自身は、専門家でなく機械学習エンジョイ勢の一個人ですので、不足している点、分かりにくい点、間違いなどあるかと思います。過ちは真摯に受け止めたいと思いますので、是非知見者の方にコメント、編集リクエスト、Pull Requestをしていただけたらと思います。 現時点では、他のサイトに説明を丸投げしていたり、数式をきちんと記載できていないところ多々あるのですが、最終的には、この

                                                                                    Pythonで基礎から機械学習まとめ - karaage. [からあげ]