並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 317件

新着順 人気順

CUDAの検索結果1 - 40 件 / 317件

  • エヌビディア一強が崩れる可能性も 米中共同で開発が進む「大規模言語モデル」の革命的な進化 | マネーポストWEB


    621AI84 1 202310使1643-1011
      エヌビディア一強が崩れる可能性も 米中共同で開発が進む「大規模言語モデル」の革命的な進化 | マネーポストWEB
    • BitTransformer界隈に激震!ついに使える乗算フリーLLMが登場!?|shi3z

      今年の3月ごろに話題になって、それから僕も実験してみたけどさっぱり学習できないBitTransformerに変わり、新たにMutmulFreeTransformerというものが出てきたようだと、NOGUCHI, Shojiさんが教えてくれたので試してみた LLM 1Bパラメータで行列計算を完全に排除できた(らしい)。メモリ消費量を学習時10倍、推論時61%Max削減(らしい)。https://t.co/tB3x1kmo4Fhttps://t.co/pb0YgAKSpw HFにモデルがアップロードされているので試してみよう。 学習は8x H100で370M:5h、1.3B: 84h、2.7B: 173hらしく1x 4090は厳しい — NOGUCHI, Shoji (@noguchis) June 26, 2024 ただ、2.7Bモデルが量子化なしで4090で推論できてるとしたらそれだけです

        BitTransformer界隈に激震!ついに使える乗算フリーLLMが登場!?|shi3z
      • スーパーコンピューターで日本がトップに立ち続けていたら今ブームのAIに繋..

        スーパーコンピューターで日本がトップに立ち続けていたら今ブームのAIに繋がったのか? それともスパコンとAIは関係ない? 脱Android⁠⁠、Huaweiが独自OS「HarmonyOS NEXT」てのがニュースなったけど これもスパコン技術が応用されてそこから生まれてたりするの? スパコン予算をすべてに優先してたら日本産独自OSとか日本産AIに繋がってたんだろうか? つながらない OSはもうぜんぜんまったく完璧に関係ないのでAIについてだけ説明する まず2010年代に始まった第3次AIのブームはソフトウェアというかアルゴリズムのブレークスルーがきっかけ カナダのYoshua Bengio、Geoffrey Hinton、Yann LeCunの3人がディープニューラルネットワークに関する発見をしたこと 3人はこの業績で「ディープニューラルネットワークがコンピューティングの重要な要素となるた

          スーパーコンピューターで日本がトップに立ち続けていたら今ブームのAIに繋..
        • インデックス以外に持っている個別株トップ5 - FIRE: 投資でセミリタイアする九条日記


          3510.6  Microsoft 5 NVIDIA 4 Meta 3 Amazon 2 Google 1 ARCC    Microsoft 5Microsoft2023112029.6 0.45%S&P5007.19 MicrosoftAzureAI
            インデックス以外に持っている個別株トップ5 - FIRE: 投資でセミリタイアする九条日記
          • DeepSpeedはなぜ速いのか〜推論編〜

            はじめに 昨今、ChatGPTに代表されるように、LLM(大規模言語モデル)が大きな盛り上がりを見せています。 本記事では、LLMの学習や推論を高速化するためのライブラリであるDeepSpeedが、どのようにしてその高速化を達成しているのかを解説します。 DeepSpeedの理論部分、特に推論について日本語で解説している記事があまりなかったため、今回執筆することにしました。 この記事を読んで欲しい人 DeepSpeedでなぜ推論が速くなるのかを知りたい人 DeepSpeedを使って手元の推論時間を短縮したい人 DeepSpeedとは DeepSpeedは、Microsoftから発表されている学習や推論の高速化、圧縮などを扱うライブラリです。本記事では、特に推論の高速化について解説します。推論高速化のためのサービスとしては、他にもvLLMやTGI、Together Inference Eng

              DeepSpeedはなぜ速いのか〜推論編〜
            • Optimizing AI Inference at Character.AI

              At Character.AI, we're building toward AGI. In that future state, large language models (LLMs) will enhance daily life, providing business productivity and entertainment and helping people with everything from education to coaching, support, brainstorming, creative writing and more. To make that a reality globally, it's critical to achieve highly efficient “inference” – the process by which LLMs g

                Optimizing AI Inference at Character.AI
              • GitHub - karpathy/LLM101n: LLM101n: Let's build a Storyteller

                What I cannot create, I do not understand. -Richard Feynman In this course we will build a Storyteller AI Large Language Model (LLM). Hand in hand, you'll be able create, refine and illustrate little stories with the AI. We are going to build everything end-to-end from basics to a functioning web app similar to ChatGPT, from scratch in Python, C and CUDA, and with minimal computer science prerequi

                  GitHub - karpathy/LLM101n: LLM101n: Let's build a Storyteller
                • AIでラフを線画に整えるだけの無料webアプリ『sketch2lineart』公開|とりにく

                  結論から言うと、こんなことができます。 カラーイラストを線画にすることも可能です。 先日、AI-AssistantV3なるお絵描き補助AIフリーソフトを公開したのですが、多くの方から『私のPCじゃ動かん!』というご意見をいただきました。 わかる~!ちょっとAIに興味あるだけの人が20万↑のPCに手を出せるわけないよね。それが本当に使えるモノかどうかもまだわからないのに。 私もできる範囲で動作サポートするものの(抜けていたらすみません!) 元々のPCのスペック問題自体はどうしようもないジレンマに葛藤していました。 ならばスマホからでも動くシンプルなwebアプリ作ったろうじゃん!!! と思ったので作りました。 機能限定版AI-AssistantV3みたいな立ち位置だと思って下さい。まぁ微妙にアルゴリズム違うんで厳密には別物ですが。 【追記】勘違いする方もいるっぽいので明記しておきます! こちら

                    AIでラフを線画に整えるだけの無料webアプリ『sketch2lineart』公開|とりにく
                  • Metaはどのようにして大規模なAIを稼働させるインフラをメンテナンスしているのか?

                    Metaはオープンソースの大規模言語モデルであるLlama 3をリリースしたり、広告用の画像やテキストを生成するAIツールを導入したりするなどAIの開発・活用を積極的に進めています。そんなMetaがAIをトレーニングしたり運用したりする際のハードウェアをどのようにメンテナンスしているのかを解説しました。 Maintaining large-scale AI capacity at Meta - Engineering at Meta https://engineering.fb.com/2024/06/12/production-engineering/maintaining-large-scale-ai-capacity-meta/ Metaは従来より世界中で多数のデータセンターを運用してきましたが、AIの台頭によりデータセンター群を変革する必要に迫られました。大規模な生成AIのモデルの

                      Metaはどのようにして大規模なAIを稼働させるインフラをメンテナンスしているのか?
                    • diffusers での Stable Diffusion 3 の使い方|npaka

                      以下の記事が面白かったので、簡単にまとめました。 ・Diffusers welcomes Stable Diffusion 3 1. Stable Diffusion 3「SD3」は、3つの異なるテキストエンコーダー (CLIP L/14、OpenCLIP bigG/14、T5-v1.1-XXL)、新しい MMDiT (Multimodal Diffusion Transformer)、および「Stable Diffusion XL」に類似した16チャネルAutoEncoderで構成される潜在拡散モデルです。 「SD3」は、テキスト入力とピクセル潜在を埋め込みシーケンスとして処理します。位置エンコーディングは潜在の2x2パッチに追加され、その後パッチエンコーディングシーケンスに平坦化されます。このシーケンスは、テキストエンコーディングシーケンスとともに MMDiTブロックに送られ、共通の次

                        diffusers での Stable Diffusion 3 の使い方|npaka
                      • お絵描き補助AIアプリ『AI-AssistantV3』公開!|とりにく


                        AI_Assistant.exeexe VRAM6GB AI_Assistant_lowVRAM.bat LoRA使 AI_Assistant_exUI.bat  bat AI_Assistant.exe --lang=jp AI_Assistant.exe --lang=en AI_Assistant.exe --lang=zh_CNStable Diffusion Web UI UIi2i
                          お絵描き補助AIアプリ『AI-AssistantV3』公開!|とりにく
                        • Ryeを用いたPyTorchおよびPyG環境構築

                          要約 Windows上のCUDA環境において、Ryeを用いてPyTorchおよびPyG (PyTorch Geometric) のライブラリをインストールすることができた。pyproject.tomlにソースを設定することが必要となる。 Ryeについて RyeはPythonのバージョン管理とライブラリ管理の両方を1つで行えるツール。Rustで内部実装されている。ここではインストール方法には触れない。インストール済みであるとして進める。 Rye CUDA環境の構築 以下が必要となる。 NVIDIAディスプレイドライバーのインストール NVIDIA CUDA Toolkit のインストール NVIDIA cuDNN のインストール この3つは組み合わせの相性があり、以下のページでサポートされている組み合わせが記載されている。 Support Matrix ここでは、最新のドライバーと CUDA

                            Ryeを用いたPyTorchおよびPyG環境構築
                          • GenAI Handbook

                            William Brown @willccbb | willcb.com v0.1 (June 5, 2024) Introduction This document aims to serve as a handbook for learning the key concepts underlying modern artificial intelligence systems. Given the speed of recent development in AI, there really isn’t a good textbook-style source for getting up-to-speed on the latest-and-greatest innovations in LLMs or other generative models, yet there is an

                            • 【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】

                              はじめに GMO NIKKOの吉岡です。 みなさん、生成AIは活用してますか? ChatGPTに始まり、Claude3やGeminiなど、実用的なAIがどんどん出てきてますね。 自分も使ってはきましたが、課金が気になってしまいます。 これではサービスに組み込むことは難しいですよね。 そのためローカルで動くLLMを追ってきましたが、今年に入って実用的な日本語を返すことができるモデルがいくつか出てきているので、サーバー構成からインストール方法、LLMの起動まで紹介しようと思います。 ローカルLLMを動かす上で一番重要なのはGPUのVRAMです。 LLMは7B、13B、70Bモデルが多いですが、量子化しない場合、必要なVRAM容量は動かすモデルの大体2倍なので、13Bモデルでは26GのVRAMが必要です。 NVIDIAのGPUを使ったCUDAが前提になっているのですが、一般向けでは24Gモデルが

                                【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】
                              • さまざまなNeRF・3DGSを検証してみた!! powerd by デジタル・フロンティア - Qiita

                                自己紹介 名城大学理工学研究科メカトロニクス工学専攻修士2年のAsterです。 現在デジタルフロンティア様にて、NeRF・3DGS検証業務を行っています。検証の目的は、将来的に実写映像作品にNeRF・3DGSを活用できないか検討することで、今回の検証はそのための第一歩となります。 2023年5月から一年間行ってきたNeRF・3DGS検証に関して記事にしました。 ぜひ見てくだされば嬉しいです。 ※本記事に記載されている情報は、著者および関係者の知識と経験に基づいて提供されているものであり、正確性や完全性を保証するものではありません。記事の内容に基づくいかなる行動も、読者自身の責任で行ってください。また、技術や規格は常に進化しており、この記事の情報は執筆時点のものであることをご了承ください。最新の情報を確認するためには、公式ドキュメントや信頼できる情報源を参照することをお勧めします。 NeRF

                                  さまざまなNeRF・3DGSを検証してみた!! powerd by デジタル・フロンティア - Qiita
                                • AI時代に一人勝ち。NVIDIAの「CUDA」がIntelやAppleを蹴散らし業界の“実質的なスタンダード”になった背景を中島聡が徹底解説 - まぐまぐニュース!

                                  空前のAIブームの中にあって、その開発の現場で「一人勝ち」とも言うべき圧倒的なシェアを誇っているNvidia(エヌビディア)のGPU向け開発環境「CUDA」。IntelやAppleといったライバルたちを尻目に、いかにしてCUDAはトップに登り詰めたのでしょうか。今回のメルマガ『週刊 Life is beautiful』では世界的エンジニアとして知られる中島聡さんが、CUDA誕生の経緯から業界の「事実上の標準」となるまでを詳しく解説。さらにMicrosoftが5月20日に発表した「Copilot+PC」に関して、中島さんが注目したポイントを記しています。 ※本記事のタイトル・見出しはMAG2NEWS編集部によるものです/原題:NvidiaのCUDAが今の地位を築いた経緯 プロフィール:中島聡(なかじま・さとし) ブロガー/起業家/ソフトウェア・エンジニア、工学修士(早稲田大学)/MBA(ワシ

                                    AI時代に一人勝ち。NVIDIAの「CUDA」がIntelやAppleを蹴散らし業界の“実質的なスタンダード”になった背景を中島聡が徹底解説 - まぐまぐニュース!
                                  • AI時代に一人勝ち。NVIDIAの「CUDA」がIntelやAppleを蹴散らし業界の“実質的なスタンダード”になった背景を中島聡が徹底解説 - ページ 3 / 3 - まぐまぐニュース!

                                    人工知能の研究者たちに瞬く間に広まった4つの情報 なぜ彼が、OpenCLではなくCUDAを採用したかについては、本人と会う機会があったら是非とも聞いてみたいところですが、この事件は、人工知能の研究者たちに大きなインパクトを与えました。具体的に言えば、 長く続いていた「人工知能の冬」がようやく終わった ニューラルネットは、そのサイズがものを言う ニューラルネットの計算は、GPUを使うと桁違いの高速化が出来る GPUを使いこなすには、CUDAを使えば良い という情報が、瞬く間に広まったのです。4番目は、OpenCLでも良かったはずなのですが、たまたまAlexNetがCUDAを採用していたため、「ニューラルネットの高速化にはCUDAを使うべし」という情報が研究者の間に瞬く間に広まってしまったのです。 この事件をきっかけに、CUDAが人工知能の研究者たちの間に瞬く間に広まったとは言え、CUDAはN

                                      AI時代に一人勝ち。NVIDIAの「CUDA」がIntelやAppleを蹴散らし業界の“実質的なスタンダード”になった背景を中島聡が徹底解説 - ページ 3 / 3 - まぐまぐニュース!
                                    • C# と ONNX Runtime Generative AI (DirectML) を使って Phi-3 をローカルで動かす - しばやん雑記

                                      Build 2024 では Windows などローカルのリソースを使って Generative AI を動かすという話が非常に多かったように、Keynote でも度々取り上げられた Phi-3 についても AWQ で 4-bit 量子化された DirectML で利用可能な ONNX モデルが公開されています。 セッションでも話がありましたが、Microsoft としては DirectML を使っておけば GPU / NPU の両方に対応できるようにするようなので、今後はローカルでの AI 利用は DirectML が主導権を握る可能性がありそうです。 現状 Hugging Face で公開されている DirectML に対応した Phi-3 の ONNX モデルは以下の 4 種類です。Phi-3 mini と Phi-3 medium の両方が利用可能になっていますが、残念ながら現時点

                                        C# と ONNX Runtime Generative AI (DirectML) を使って Phi-3 をローカルで動かす - しばやん雑記
                                      • Hugging Face ZeroGPU のチュートリアル|ぬこぬこ

                                        tl;drHugging Face に月に 9 ドルお布施すると ZeroGPU が使えるよ! ZeroGPU は Hugging Face Spaces にて最大 120 秒間 A100 が使えるという代物だよ! 通常はホスティングに時間単価で課金が発生するから安心だね! ちょっとしたモデルの推論サーバとして重宝するよ! ZeroGPU とはなにか Hugging Face Spaces で追加のコストなく GPU を使える代物。 この記事の読者の多くは、大規模言語モデルや画像生成モデルなどのデモアプリが Hugging Face Spaces 上で動いているのを目にしたことがあるでしょう。 こういう感じの一度くらい見たことがありますよねきっとこれらを自前で Hugging Face Spaces にホスティングする際にはなかなかにめんどうくさい。 このモデルってどのくらいの推論メモリを

                                          Hugging Face ZeroGPU のチュートリアル|ぬこぬこ
                                        • 中国製GPUで学習した純中国製LLM「MT-infini-3B」が「Llama3-8B」を超える性能を示し中国単独で高性能AIを開発できることが明らかに

                                          中国に拠点を置くGPUメーカーの「摩爾線程(Moore Threads)」が、自社製GPUを用いて大規模言語モデル「MT-infini-3B」を開発したことを発表しました。MT-infini-3BはNVIDIA製GPUを用いて学習した大規模言語モデルと同等以上の性能を備えているそうです。 摩尔线程携手无问芯穹:基于夸娥千卡智算集群的“MT-infini-3B”大模型实训已完成 | 摩尔线程 https://www.mthreads.com/news/171 アメリカ政府は中国によるAI研究を軍事上の脅威と捉えており、中国に対して高性能半導体の禁輸措置を実施しています。このため中国ではNVIDIAやAMD、Intelなどが開発しているAI研究用チップの開発が困難となっています。 そんな中、Moore Threadsは2023年12月に独自開発のAI研究用GPU「MTT S4000」を発表しま

                                            中国製GPUで学習した純中国製LLM「MT-infini-3B」が「Llama3-8B」を超える性能を示し中国単独で高性能AIを開発できることが明らかに
                                          • OpenAIの共同設立者が「GPT-2」をわずか90分の時間と3100円の費用で再現するレポートを公開

                                            2019年に公開されるやいなや「危険すぎる」と話題になったOpenAIの「GPT-2」を、ゼロから作成したレポートが公開されました。作成にかかった時間は、1時間14ドル(約2200円)のクラウドコンピューティングサービスで1時間半だったため、総コストは約20ドル(約3100円)に収まっています。 Reproducing GPT-2 (124M) in llm.c in 90 minutes for $20 · karpathy/llm.c · Discussion #481 · GitHub https://github.com/karpathy/llm.c/discussions/481 # Reproduce GPT-2 (124M) in llm.c in 90 minutes for $20 ✨ The GPT-2 (124M) is the smallest model in t

                                              OpenAIの共同設立者が「GPT-2」をわずか90分の時間と3100円の費用で再現するレポートを公開
                                            • ローカルLLMの長文推論、メモリ使用量を節約する方法:KVキャッシュの量子化|AIサトシ

                                              大規模言語モデル(LLM)において、メモリ使用量の効率化は非常に重要です。特に長文処理を行う場合です。モデルに入力するコンテクストが長くなるほど、メモリ消費量も増加します。 プロンプトに入力する文字数(Token数)と必要メモリについて計算したメモ📝 精度との兼ね合いですが、長文扱うときは、mistral-v0.1圧倒的にコスパ良い pic.twitter.com/Nqn5SXDZ9u — AI𝕏サトシ⏩ (@AiXsatoshi) May 27, 2024 Mistral-7Bは、v0.1では、約4K tokensのSliding window attention(SWA)にて、コンテクスト長に消費されるメモリを低減しました。しかし、性能への影響からと考えますが、v0.2以降のアップデートで、SWAは排除されています。入力トークンを絞ることでメモリ容量を低減すれば、当然複雑性や表現力

                                                ローカルLLMの長文推論、メモリ使用量を節約する方法:KVキャッシュの量子化|AIサトシ
                                              • 予期せぬバグの原因は「満月」だった

                                                技術者のバルトウォミェイ・クピアウ氏が、ローグライクゲーム「NetHack」の遊び方を学習するニューラルネットワークのトレーニングをする中で出会った、過去に見た中で最も不思議なバグについての話を披露しています。 So here's a story of, by far, the weirdest bug I've encountered in my CS career. Along with @maciejwolczyk we've been training a neural network that learns how to play NetHack, an old roguelike game, that looks like in the screenshot. Recenlty, something unexpected happened. pic.twitter.com/AF

                                                  予期せぬバグの原因は「満月」だった
                                                • お絵描き補助AIアプリ『AI-AssistantV2』公開!|とりにく

                                                  AI-Assistantを大きめのアップデートをしたので、新機能の紹介です。 【更新履歴】 2024/05/24 fanbox支援者様のみに先行公開 2024/05/27 全体公開 【DL先】https://drive.google.com/file/d/1H9FwWMOZLa-hcX3_lXadmdy-VcNrNmCj/view?usp=sharing 予備URL: https://www.dropbox.com/scl/fi/xkpemko76kyhaot133g3p/AI_Assistant.zip?rlkey=g0recmef48a5sx5hh66mflge5&st=ft1ja0yl&dl=0 【はじめに】サイゼ〇ヤのアロ〇ティチーニを照れながらアーンしてくれるオークの彼氏のイラストが欲しいって時、結構ありますよね。私はあります。 そんな時AI-AssistantV2があれば、サ〇

                                                    お絵描き補助AIアプリ『AI-AssistantV2』公開!|とりにく
                                                  • NVIDIA GeForce RTX 5090は16枚のGDDR7を搭載。容量は32GBに拡大

                                                    NVIDIA GeForce RTX 5090は16枚のGDDR7を高密度に搭載。容量は32GBに向上へ NVIDIAは2024年秋ごろにBlackwellアーキテクチャーを採用するGeForce RTX 5000シリーズを投入する予定ですが、今回この中で最上位モデルとなるGeForce RTX 5090のメモリーレイアウトと基板レイアウトに関するリーク情報が半導体関係の情報を扱う中国の掲示板『Chiphell』から明らかになりました。 Chiphellで過去に実績があるリーカーによると、GeForce RTX 5090のメモリーレイアウトは非常に高密度でダイに対して左右に5、上面に4、下面に2枚のメモリーモジュールを備えるとのことです。 現行のGeForce RTX 4090では384-bitのバス幅を実現するためにGDDR6Xメモリーモジュールを左右に4枚、上面に3枚、下面に1枚で合計

                                                      NVIDIA GeForce RTX 5090は16枚のGDDR7を搭載。容量は32GBに拡大
                                                    • Faster WhisperとAWS SageMakerを活用してGPUでの高速文字起こしエンドポイントを構築する

                                                      概要 最近の音声認識技術の進歩はすごいですね! 特にOpenAIの最新モデルであるWhisper large-v3は、日本語の音声データでもかなりの高精度で文字起こしを行うことができ、APIも公開されています。 ただし簡単に使用でき汎用性も高い一方で、大量に使用する場合の高コストやプライバシーの懸念もあるため、ローカル環境で効率よく高精度な文字起こしを実現するモデルが多数開発されています。 今回は、その中でもGPUを使用した高速推論が可能な「Faster Whisper」を用いて、AWS SageMakerでカスタム文字起こしエンドポイントを構築してみたので、手順を解説していきたいと思います。 実装コードは以下のリポジトリにあります。 順番通りJupyterNotebookを実行すると問題なく動作するはずです。 Faster Whisperとは Faster WhisperはOpenAIの

                                                        Faster WhisperとAWS SageMakerを活用してGPUでの高速文字起こしエンドポイントを構築する
                                                      • microsoft/Phi-3-vision-128k-instruct · Hugging Face

                                                        Intended Uses Primary use cases The model is intended for broad commercial and research use in English. The model provides uses for general purpose AI systems and applications with visual and text input capabilities which require memory/compute constrained environments; latency bound scenarios; general image understanding; OCR; chart and table understanding. Our model is designed to accelerate res

                                                          microsoft/Phi-3-vision-128k-instruct · Hugging Face
                                                        • 驚くほどキレイな三次元シーン復元、「3D Gaussian Splatting」を徹底的に解説する - Qiita

                                                          はじめに 最近、3D業界で大きな衝撃を与えた「3D Gaussian Splatting」1について、ご存知でしょうか?数少ない写真から、目を奪われるほど美しい三次元シーンを再構成できるデモを見て私も大感動しました。なぜこんなに美しいのか、どんな技術で実現したのか、興味が湧いています! "普通の3D物体ではなく、カメラの移動に合わせて、水面に映る景色も正確に表現しています。これはなかなか凄い..." 私も時間をかけて論文や公開されたコード2を勉強しました。本家の実装はCUDA化されており、難解な部分が多く、論文に書かれていないこともあります。そのため、「3D Gaussian Splatting」を勉強したい人にむけ、わかりやすい解説記事を書こうと思いました。単に概念や考え方だけでなく、ゼロから再実装できるように、すべてのロジックを数式として整理し、徹底的に解説しようと思います。 「3D

                                                            驚くほどキレイな三次元シーン復元、「3D Gaussian Splatting」を徹底的に解説する - Qiita
                                                          • Copilot+ PC の紹介 - News Center Japan

                                                            ユスフ メディ (Yusuf Mehdi) エグゼクティブ バイス プレジデント 兼 コンシューマー チーフ マーケティング オフィサー ※本ブログは、米国時間 5 月 20 日に公開された “Introducing Copilot+ PCs” の抄訳を基に掲載しています。 マイクロソフトのイベントの基調講演のオンデマンド録画が、米国時間 5 月 20 日午後 2 時に公開される予定です。公開時点で、本ブログ記事のリンクの更新が行われます。 本日、マイクロソフトの新しいキャンパスで開催された特別なイベントにおいて、AI のために設計された新しいカテゴリーの Windows PC である Copilot+ PC (コパイロットプラス ピーシー) を世界に向けて紹介しました。 Copilot+ PC は、これまでで最も高速でインテリジェントな Windows PC です。驚異的な 40 TOP

                                                              Copilot+ PC の紹介 - News Center Japan
                                                            • Introducing Copilot+ PCs - The Official Microsoft Blog

                                                              An on-demand recording of our May 20 event is available. Today, at a special event on our new Microsoft campus, we introduced the world to a new category of Windows PCs designed for AI, Copilot+ PCs. Copilot+ PCs are the fastest, most intelligent Windows PCs ever built. With powerful new silicon capable of an incredible 40+ TOPS (trillion operations per second), all–day battery life and access to

                                                                Introducing Copilot+ PCs - The Official Microsoft Blog
                                                              • 最近ローカルLLMがアツいらしい

                                                                最近、ローカルLLMがアツくなっているという話をtwitterでチラホラ見かける。 ローカルLLMって何じゃ?というと、オープンに公開されているモデルのウエイトをDLしてきて手元のPC上で推論させる事である。 オープンなAIモデルとは逆の存在として、モデルがDLできないクローズなAIモデルもある。 OpenAIやAnthropicのような最先端AI企業のクローズなAIモデルに比べて、オープンに公開されているオープンなAIモデルの性能は今でもかなり後れを取っている。 だから去年の間はあくまでAIの本命はChatGPTのようなクローズモデルであって、オープンなAIモデルなんて眼中にありませんみたいな風潮が無くはなかった。だが最近は風向きが少々変わってきている。 GPTのAPI高い問題 & OpenAIがAIベンチャー皆殺しにしてしまう問題 まず「結局GPTのAPIを叩いてサービス運営して成功し

                                                                • M1MacでOllamaを試したら爆速で驚いた

                                                                  はじめに いつもNVIDIAが載っているWindowsで楽しくLLMを動かしたり生成AIライフを楽しんでいますが、今回はMacOSでOllamaを入れてLlama3を動かしてみました。 スペック: Apple M1 Pro(16 GB) 少し前だとCUDAのないMacでは推論は難しい感じだったと思いますが、今ではOllamaのおかげでMacでもLLMが動くと口コミを見かけるようになりました。 ずっと気になっていたのでついに私のM1 Macでも動くかどうかやってみました! 結論、爆速で推論できていたのでとても驚きました。OSS開発に感謝です! Ollamaとは OllamaとはローカルでLLMを動かすことができるアプリケーションです。 以下からダウンロードできます。 MacOSとLinuxで使うことができます。Windowsもプレビュー版があるみたいです。 #いざ推論 ダウロードができたらシ

                                                                    M1MacでOllamaを試したら爆速で驚いた
                                                                  • 【2024年版】WSL2+Ubuntu24.04+Docker+GPUでつくる機械学習環境


                                                                     WSL2Windows Subsystem for Linux 2Microsoft WindowsLinux WSL2DockerGPU NvidiaGPUWSL2DockerCUDACUDA Toolkit PC Windows 11 Windows version: 22H2 GPUNVIDIA Geforce RTX 3060 12GB  1. WSL2 WSL2 
                                                                      【2024年版】WSL2+Ubuntu24.04+Docker+GPUでつくる機械学習環境
                                                                    • 「カズレーザーと学ぶ。」に出演した際,カズさんの知識に驚かされた話→「一般人どころか研究者レベルの会話でした.東大大学院で研究できるのでは...」

                                                                      今井翔太 / Shota Imai@えるエル @ImAI_Eruel AI研究者 / 博士(工学,東京大学), Ph. D. / 元・東京大学 松尾研究室 / 新たな挑戦に向けて準備中!/ 強化学習,マルチエージェント,生成AI,LLM,ゲームAI / 著書:『生成AIで世界はこう変わる』『G検定公式テキスト』『AI白書』 / 翻訳書:『強化学習』/ 石川県金沢市出身 slideshare.net/ShotaImai3 今井翔太 / Shota Imai@えるエル @ImAI_Eruel 「カズレーザーと学ぶ。」に出演した際,カズさんと個人的にお話する時間がありました 最近の生成AIのことを話したのですが,カズさんの知識に驚かされました. なにせ会話の切り出しが「最近のLLM量子化の研究ですが..」です. 一般人どころか研究者レベルの会話でした.東大大学院で研究できるのでは... 2024

                                                                        「カズレーザーと学ぶ。」に出演した際,カズさんの知識に驚かされた話→「一般人どころか研究者レベルの会話でした.東大大学院で研究できるのでは...」
                                                                      • スタンフォード大学の研究グループがGPUを高速に動作させるAI用のドメイン固有言語「ThunderKittens」をリリース

                                                                        スタンフォード大学のクリストファー・レ教授率いる研究チームがGPUを最大限に活用して一定時間当たりの演算量を最大化するためのドメイン固有言語(DSL)「ThunderKittens」をリリースしました。 ThunderKittens: A Simple Embedded DSL for AI kernels · Hazy Research https://hazyresearch.stanford.edu/blog/2024-05-12-quick-tk GPUs Go Brrr · Hazy Research https://hazyresearch.stanford.edu/blog/2024-05-12-tk 研究チームはNVIDIA H100を使用し、GPU使用率の最大化に取り組みました。H100はTensorコアを使用する半精度行列乗算計算の性能が989TFLOPSであり、その他

                                                                          スタンフォード大学の研究グループがGPUを高速に動作させるAI用のドメイン固有言語「ThunderKittens」をリリース
                                                                        • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第24回:照明を自由にコントロールできるIC-Light登場!(西川和久) | テクノエッジ TechnoEdge

                                                                          lllyasviel氏復活第一弾のIC-Light前回(第23回)にControlNetやFooocus、stable diffusion webui forgeを作ったlllyasviel氏、ここ数ヶ月Xなどに書き込みが無いと書いたが、いきなり驚くべき仕掛けを提げての復活。その名もIC-Light(Imposing Consistent Light)。Stable Diffusionの技術を使って、照明を自由にコントロールできる仕掛けだ。 これまでStable Diffusionでは、SD 1.5、SDXLに関わらず、Promptで光や照明などの指示はできたのだが、どのように反映されるかは、Modelやその他の設定しだい。例えば backlight, soft bounced lighting, soft natural lighting, candolelight, neon ligh

                                                                            生成AIグラビアをグラビアカメラマンが作るとどうなる?第24回:照明を自由にコントロールできるIC-Light登場!(西川和久) | テクノエッジ TechnoEdge
                                                                          • Zenbook 14 OLEDでみるCore Ultra内蔵GPUのゲーミング性能。内蔵GPUのレイトレ性能はどのくらい?(西川善司のバビンチョなテクノコラム) | テクノエッジ TechnoEdge

                                                                            テクニカルジャーナリスト。東京工芸大学特別講師。monoAI Technology顧問。IT技術、半導体技術、映像技術、ゲーム開発技術などを専門に取材を続ける。スポーツカー愛好家。 Core Ultra搭載のノートPCのサンプル評価機が我が家にやってきた。 モデル名はASUS「Zenbook 14 OLED UX3405」。 西川Zen司という名前でありながら、ASUSのZenbookを実際に自宅で触るのは初めてのことである(Ry"Zen"の方は初代から愛用してはいたが)。 本機の搭載CPUは、Core Ultra 7 155Hで、ラインアップ上の中間グレードに位置するモデルとなる。 搭載CPUはCore iシリーズではなく、Intelが昨年末から投入を開始した新シリーズ「Core Ultra」を採用。本機は、いわゆるIntelが2024年以降に強力に推進する「AI PC」だ。 わざわざ「

                                                                              Zenbook 14 OLEDでみるCore Ultra内蔵GPUのゲーミング性能。内蔵GPUのレイトレ性能はどのくらい?(西川善司のバビンチョなテクノコラム) | テクノエッジ TechnoEdge
                                                                            • Dart V2を使って全自動でイラストデータセットを作成する

                                                                              昨日、Dartという良い感じにプロンプトを生成してくれるLLMのV2が発表されました。 今回はこれを使ってControlNet等の学習に必要なイラストを大量に自動生成する方法を紹介します。 Dartって何? Danbooruタグをいい感じに生成・補完してくれるLLM(大規模言語モデル)です。 詳しくは作者様が解説してくださっているこちらの記事をご参照ください。 データセット自動生成 本題です。 今回はそんなに難しいことはせず、Dartでプロンプトを自動生成し、そのプロンプトをDiffusersに食わせて画像を生成します。 Dartの呼び出し まずはプロンプト作成部分です。 def get_prompt(model): prompt = ( f"<|bos|>" f"<copyright></copyright>" f"<character></character>" f"<|rating:

                                                                                Dart V2を使って全自動でイラストデータセットを作成する
                                                                              • 1つの大きなLLM(大規模言語モデル)を複数のGPUで力を合わせて動かそう | IIJ Engineers Blog

                                                                                地方拠点の一つ、九州支社に所属しています。サーバ・ストレージを中心としたSI業務に携わってましたが、現在は技術探索・深堀業務を中心に対応しています。 2018年に難病を患ったことにより、定期的に入退院を繰り返しつつ、2023年には男性更年期障害の発症をきっかけに、トランスジェンダーとしての道を歩み始めてます。 LLM群雄割拠の時代 昨今、ローカルGPUで駆動できるようなLLM(大規模言語モデル)もかなり増えてきて、キャッチコピー的に「ついに我が家にもGPT-4が!」とか言われるようになってまいりました。パラメータ規模で言えば70億~130億(7B-13B)パラメータ、700億(70B)パラメータ、1400億(140B)パラメータあたりのモデルが活発にリリースされているように見受けられます。 大きなモデルをGPU寄せ集めしつつ遊びたい! しかしながら、コンシュマー向けのGPUにおいては、7B

                                                                                  1つの大きなLLM(大規模言語モデル)を複数のGPUで力を合わせて動かそう | IIJ Engineers Blog
                                                                                • Sakana.aiが公開した「Evolutionary Model Merge」手法を「mergekit」で実施してみる - Taste of Tech Topics


                                                                                   YAMALEX@tereka114 YAMALEX Acroquest   LLMLLM AISakana.aiEvolutionary Model Merge使 Evolutionary Model Merge Evolutionary Model MergeSakana.ai 
                                                                                    Sakana.aiが公開した「Evolutionary Model Merge」手法を「mergekit」で実施してみる - Taste of Tech Topics