並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 20 件 / 20件

新着順 人気順

ディープラーニングの検索結果1 - 20 件 / 20件

  • 画像生成AIに照明革命 日本と世界で同時に“神ツール”登場 (1/3)

    この連載ではおなじみのキャラクター「明日来子さん」に右側からライトを当ててみた。左がIC-Lightを適用したもので、右がオリジナル。環境はWebUI Forge用の拡張機能を使用 5月8日に、「ControlNet」など画像生成AI関連の著名研究者であるイリヤスフィール(lllyasviel)さんが発表した「ICライト(Imposing Consistent Light、印象的な一貫的なライト)」が盛り上がりました。入力した画像をもとに、後から指定した照明効果を踏まえた画像を生成する技術です。 画像生成AIで照明効果がつけられる「ICライト(IC-Light)」 発表された学習済みモデルは、「ライトを指定すると、キャラクターのデータに合わせてテキストのプロンプトに合わせて独自に背景を生成するもの」「キャラクターとライトの影響を加味して、別の背景画像と合成するもの」の2種類があります。これ

      画像生成AIに照明革命 日本と世界で同時に“神ツール”登場 (1/3)
    • 自分がどれくらいニューラルネットワークを理解しているかを確かめられるゲーム「Graph Game」

      「Graph Game」はニューラルネットワークの構造をグラフで作成するゲームです。AI技術の発展と共に頻繁に目にするようになった「ニューラルネットワーク」をどの程度理解しているか試せるゲームとのことなので、実際にプレイしてみました。 Graph Game - By Sabrina Ramonov https://graphgame.sabrina.dev/ サイトにアクセスするとこんな感じ。「RNN」「LSTM Cell」「GRU Cell」「ResNet Block」「Deep RNN」という5つのステージが用意されています。まずは「RNN」をクリックしてみます。 「x_t」「h_t」「y_t」という3つの箱が出現しました。それぞれの箱はデータを表しており、上が出力で下が入力となっています。「x_t」の上の○をクリックし、ドラッグして「h_t」の下に接続します。 緑の線で接続が表示され

        自分がどれくらいニューラルネットワークを理解しているかを確かめられるゲーム「Graph Game」
      • 中島聡さん、NVIDIAのGPUが用済みになるって本当ですか?AI開発の行列乗算をなくす「MatMul-free LM」で気がかりなこと - まぐまぐニュース!


        GPUAI Life is beautifulQ&AWindows95 MAG2NEWS  MBANTTUIEvolution Inc. neu.Pen LLCiPhone/iPad1AI  
          中島聡さん、NVIDIAのGPUが用済みになるって本当ですか?AI開発の行列乗算をなくす「MatMul-free LM」で気がかりなこと - まぐまぐニュース!
        • Generative Models

          2024年6月13日に大阪大学大学院 情報科学研究科で行った「情報科学特別講義Ⅰ」の講義資料です。 https://www.ist.osaka-u.ac.jp/japanese/news/newsDetailNews.php?id=308

            Generative Models
          • “ラズパイ5”にNPU追加できる「Raspberry Pi AI Kit」 最大13TOPSの推論性能 日本では近日販売へ


             Raspberry Pi 5   Raspberry PiRaspberry Pi 510AICopilot+ PC  MicrosoftAICopilotAIWindows PCCopilot+ PC618SnapdragonCopilot+PCAICopilot+ PCArmSurface ProLaptop M3 MacBook Air  MicrosoftSur
              “ラズパイ5”にNPU追加できる「Raspberry Pi AI Kit」 最大13TOPSの推論性能 日本では近日販売へ 
            • ウォンテッドリーのプロダクト開発における Python の開発・運用環境

              What's in a price? How to price your products and services

                ウォンテッドリーのプロダクト開発における Python の開発・運用環境
              • GPTを生んだ先端技術「Transformer」、その基礎を正しく理解する

                対話型AIサービス「ChatGPT」で使われている自然言語モデルの核になっている技術が「Transformer」だ。自然言語処理を例に、Transformerの仕組みを解説する。 すっかり市民権を得た対話型AIサービス「ChatGPT」。ChatGPTで用いられている自然言語モデルが「GPT」(Generative Pre-trained Transformer)です。いわゆる「大規模言語モデル」(LLM:Large Language Model)の1つであり、本稿執筆時点(2023年12月)の最新バージョンは「GPT-4 Turbo」です。バージョンを追うごとに、精度向上などの進化を遂げてきました。 このGPTの核となるディープラーニング(深層学習)のモデルが「Transformer」です。前述のGPTの正式名称を見直すと、「T」はTransformerのTであることがわかります。このネ

                  GPTを生んだ先端技術「Transformer」、その基礎を正しく理解する
                • プリファードネットワークス、AI半導体でNVIDIA追う 省エネに勝機 - 日本経済新聞

                  「実装段階ではサーバーはどんな仕組みになるのか」「価格はどのくらいか」──。2月下旬、人工知能(AI)開発を手掛けるプリファードネットワークス(PFN、東京・千代田)が開いた、AIのディープラーニング(深層学習)向け独自半導体チップ「MN-Core」についての勉強会の一幕。通信会社やデータセンター関連企業の社員らから熱心な質問が飛んだ。日の丸半導体復活への期待が高まる中、日本で有望なスタートア

                    プリファードネットワークス、AI半導体でNVIDIA追う 省エネに勝機 - 日本経済新聞
                  • WWDC24:機械学習とAIモデルをAppleシリコンに統合 | NEWS | Mac OTAKARA

                    ※本サイトは、アフィリエイト広告および広告による収益を得て運営しています。購入により売上の一部が本サイトに還元されることがあります。 Appleが、WWDC24において「機械学習とAIモデルをAppleシリコンに統合」を公開しています。 AppleのCore MLチームのエンジニアQiqi Ziao氏は、Core ML Toolsに加えられたいくつかのエキサイティングなアップデートについてお話しします。これらのアップデートは、機械学習やAIのモデルをApple Siliconでより良く活用するのに役立ちます。モデルデプロイのワークフローには3つの重要な段階があります。 私は準備段階に焦点を当て、多くの最適化を共有し、デバイス上でモデルを最も効率的に実行するための機能が含まれていることを確認します。このセッションでは、あなたがすでに機械学習モデルを持っていると仮定します。このモデルは、事前に

                      WWDC24:機械学習とAIモデルをAppleシリコンに統合 | NEWS | Mac OTAKARA
                    • WWDC24:Apple プラットフォームでの機械学習の詳細 | NEWS | Mac OTAKARA

                      ※本サイトは、アフィリエイト広告および広告による収益を得て運営しています。購入により売上の一部が本サイトに還元されることがあります。 Appleが、WWDC24において「Apple プラットフォームでの機械学習の詳細」を公開しています。 Appleのオンデバイス機械学習チームのAnil Katti氏は、AppleのOSやアプリケーションの多くの革新的な機能の根底には、高度な機械学習とAIモデルがあります。空間コンピューティングのためのジェスチャー認識、画像キャプチャのポートレートモード、健康のためのECGと心拍数のモニタリング。これらの機能はすべて機械学習とAIによって実現されており、これらの機能を支えるモデルはすべてデバイス上で動作すると説明しています。 今年のリリースでは「Apple Intelligence」がアプリやシステム全体の新機能をパワーアップさせ、エキサイティングな進化をも

                        WWDC24:Apple プラットフォームでの機械学習の詳細 | NEWS | Mac OTAKARA
                      • Hugging FaceのZeroGPUでAIのデモを作る方法: 初級編 - Qiita

                        はじめに この記事ではHugging Faceという🤗なサイトでAIのデモを作ってみることを説明します。 ただし、この記事に書いてある方法でデモを作ったとして、そのデモにより起きることに責任は持てません。あらかじめご了承ください。 Hugging FaceのZeroGPUとは ZeroGPU とは、デモの利用者が使う瞬間だけ高性能なGPUが借りられるというサービスです。現在はA100 40GBが一瞬借りられます。これを実現できているのは世界でHugging Faceだけでしょう。お値段は月額9ドル(約1500円)です。もし、ZeroGPUがなかったら、私は計算上40万円以上月に払っていることになります。それぐらいコスパの良い実験的サービスです。ぜひ使いましょう。 (ZeroGPUのページより引用) ZeroGPUの事前準備 まず、適当なクレジットカードを用意してください。次に、Huggi

                          Hugging FaceのZeroGPUでAIのデモを作る方法: 初級編 - Qiita
                        • AIアプリ活用のカギはCPU、GPU、NPUそれぞれへの最適化 ~なぜ今がAI PC向けアプリ開発スタートアップに好機なのか[Sponsored]

                            AIアプリ活用のカギはCPU、GPU、NPUそれぞれへの最適化 ~なぜ今がAI PC向けアプリ開発スタートアップに好機なのか[Sponsored]
                          • The 30th Symposium on Sensing via Image Information/Home page

                            SSII2024 Symposium Announcement The 30th Symposium on Sensing via Image Information will take place as shown below. We look forward to your participation! Date: Wednesday, June 12th, 2024 - Friday, June 14th, 2024 Venue: Pacifico Yokohama Annex Hall Details are posted on the SSII website. Note, that only the front page is available in English. Program is now available! Symposium Registration is op

                            • GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習

                              この動画は3Blue1Brownの動画を東京大学の学生有志団体が翻訳・再編集し公式ライセンスのもと公開しているものです。 チャンネル登録と高評価をよろしくお願いいたします。 日本語版Twitter https://twitter.com/3B1BJP 元チャンネル(英語) https://www.youtube.com/c/3blue1brown 元動画(英語) https://www.youtube.com/watch?v=eMlx5fFNoYc&t=795s&pp=ygUVYXR0ZW50aW9uIDNibHVlMWJyb3du 新チャンネルUfolium https://www.youtube.com/watch?v=nF7gFRebGTk&pp=ygUHdWZvbGl1bQ%3D%3D https://www.youtube.com/watch?v=wrNCjIjIzuk&p

                                GPT解説2 アテンションの仕組み (Attention, Transformer) | Chapter6, 深層学習
                              • SSII2024 [SS1] 拡散モデルの今 〜 2024年の研究動向 〜

                                Scaling Rectified Flow Transformers for High-Resolution Image Synthesis / Stable Diffusion 3

                                  SSII2024 [SS1] 拡散モデルの今 〜 2024年の研究動向 〜
                                • 明日使えるかもしれないLoss Functionsのアイディアと実装

                                  特徴的な損失関数(Loss Functions)についてそのアイディアとPyTorchの実装を紹介。

                                    明日使えるかもしれないLoss Functionsのアイディアと実装
                                  • PKSHA製基盤モデルの特徴とは? 「Transformer」ではなく「RetNet」だから実現できた“3つの強み”

                                    PKSHA製基盤モデルの特徴とは? 「Transformer」ではなく「RetNet」だから実現できた“3つの強み” 生成AIブームの今、注目のキーワードが「基盤モデル」だ。大量のデータを事前学習したAIモデルのことで、少しのチューニングを施せば、さまざまなタスクに対応できる。米OpenAIの「GPT-4」といった生成AIも包含する概念だ。 さまざまな企業が生成AIを使った業務効率化を試行錯誤する中、各AIベンダーたちの間では基盤モデルの開発競争が激化している。そこでこの特集では、基盤モデルを開発するAIベンダーに一問一答メールインタビューを実施。開発状況や独自の強みなどを探っていく。 今回は、日本マイクロソフトの技術支援の元で、独自の基盤モデルを開発する、AIベンチャー・PKSHA Technology(東京都文京区)に話を聞いた。 PKSHA Technologyの基盤モデルの特徴や強

                                      PKSHA製基盤モデルの特徴とは? 「Transformer」ではなく「RetNet」だから実現できた“3つの強み”
                                    • 深さ可変のMLPを見つけて目から鱗だった話 - Qiita


                                       kaggleMLPkerasSequentialDenseDropoutadd torch.nn.ModuleLinear2,3 MLP MLP  Keras (Sequential) forn_layer-2DenseDropout from keras.models imp
                                        深さ可変のMLPを見つけて目から鱗だった話 - Qiita
                                      • How Meta trains large language models at scale

                                        As we continue to focus our AI research and development on solving increasingly complex problems, one of the most significant and challenging shifts we’ve experienced is the sheer scale of computation required to train large language models (LLMs). Traditionally, our AI model training has involved a training massive number of models that required a comparatively smaller number of GPUs. This was th

                                          How Meta trains large language models at scale
                                        • T-LEAF: Taxonomy Learning and EvaluAtion Framework

                                          How we applied qualitative learning, human labeling and machine learning to iteratively develop Airbnb’s Community Support Taxonomy. By: Mia Zhao, Peggy Shao, Maggie Hanson, Peng Wang, Bo Zeng BackgroundTaxonomies are knowledge organization systems used to classify and organize information. Taxonomies use words to describe things — as opposed to numbers or symbols — and hierarchies to group things

                                            T-LEAF: Taxonomy Learning and EvaluAtion Framework
                                          1