サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
都知事選
deepsquare.jp
Meta AIのConvNeXtに自己教師あり学習のMAEを統合したFCMAEを持つ改良モデル ConvNeXt V2を紹介! 2023.02.13 AI論文 画像処理 本論文は、Meta の 最新畳み込みモデルである「 ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders 」 に関してまとめています。 基本情報 イントロダクション 事前学習された大規模な画像認識モデルは、特徴学習や様々な視覚アプリケーションを実現するための重要なツールとなっています。そして、そのシステムの性能は、ニューラルネットワークアーキテクチャの選択、ネットワークの学習方法、訓練データの3つの主要因に大きく影響されます。 ニューラルネットワークアーキテクチャの選択 ConvNetsは、様々な画像認識タスクに汎用的な特徴学習法を利
はじめに OpenAIより幅広いタスクでゼロショット転移(タスクごとのFine-tuningを必要としない)が可能な事前学習画像分類モデルCLIPが発表されたので、論文をもとに詳細解説します。簡単にまとめた記事も掲載しておりますので、お時間がない方はこちらをご参照下さい。(自然言語と画像を結びつけて高い汎化性能を実現したOpenAIのCLIPを紹介!)なお、この記事で用いた画像はすべて下記論文より引用したものです。 論文 Learning Transferable Visual Models From Natural Language Supervision https://cdn.openai.com/papers/Learning_Transferable_Visual_Models_From_Natural_Language_Supervision.pdf OpenAIブログ CLI
はじめに 本記事は、物体検出モデルであるRetinaNetを通して「モデルの概念理解」と「コードの理解」ができることを目的としたものです。そのため①モデルの解説、②コードの解説、という二部構成になっています。コードの記述に関しては後日公開予定です。 RetinaNetとは RetinaNetとは、Facebook AI Research(FAIR)が2017年8月に発表した論文「Focal Loss for Dense Object Detection」で提唱されている物体検出モデルです。 論文 Focal Loss for Dense Object Detection [Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He, Piotr Dollár @ ICCV 2017] https://arxiv.org/abs/1708.020
Attentionは不要!?Google BrainによるTransformer型モデルに対抗できるgMLPを詳細解説! 2021.05.26 AI論文 学術研究, 画像処理, 自然言語処理 はじめに Google Brainが全結合層を基本としたニューラルネットワークがTransformerと同程度の精度を出すことができることを研究で明らかにしました。この結果、NLP(自然言語処理)だけではなく、最近ではCV(画像処理)の分野でもデファクトスタンダードになりつつあったTransformerをベースとしたモデル構成に再考が求められることになります。 なお、今回利用した図はすべて下記論文(「Pay Attention to MLPs」)から引用しております。 ●Transformer系の解説記事 Facebookチームが開発した画像分類にTransformerを利用した効率モデルDeiTを紹
画像認識の革新モデル!脱CNNを果たしたVision Transformer(ViT)を徹底解説! 2020.10.16 AI論文 画像処理 はじめに AIの世界では毎年最先端(SOAT:state-of-the-art technology)モデルが発表され、多くの新技術が生まれています。しかし、2017年に発表され「Atteintion is All you need」という論文で紹介された「Transformer」というモデルは、AIの歴史全体でみても大きな影響力をもつ極めて革新的な技術です(Transformerについてはこちらの記事をご参照ください。「自然言語処理の必須知識 Transformer を徹底解説!」)。Transformerはそれまでの自然言語処理の世界を一新し、その後発表されるモデルのデファクトスタンダートになりました。ただし、画像処理の世界では障壁(記事内で詳し
2018年にGoogleの研究チームから発表されたMobileNetV2の詳細解説を発表論文とGoogleブログを主な参考文献として行う。なお、説明のために引用した図は下記発表論文もしくはGoogleブログから用いた。 元論文: MobileNetV2: Inverted Residuals and Linear Bottlenecks (初稿2018年1月13日、最終版2019年3月21日) https://arxiv.org/abs/1801.04381 Googleブログ: MobileNetV2: The Next Generation of On-Device Computer Vision Networks (2018年4月3日) https://ai.googleblog.com/2018/04/mobilenetv2-next-generation-of-on.html サ
このページを最初にブックマークしてみませんか?
『AIを学びたい・活用したい方の学習プラットフォーム│DeepSquare』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く