画像生成に関するshunt_iのブックマーク (8)
-
Stable Diffusionを代表とする画像生成AIにおいて、生成スピードを上げるにはより強力なGPUが必要だ。GeForceならRTX 4090のような最強のGPUが使えればいいが、誰もが手にできる価格とは言い難い。 となればビデオカードを複数枚使用してStable Diffusionの生成スピードが向上しないだろうか? と考えるのは自然な流れだが、今のStable Diffusionは複数のGPUを協調させて処理する機能は搭載されていない。 しかし、Stable Diffusion︵とAutomatic 1111︶をGPUごとに紐付けて起動することで、ビデオカードの数だけ並行して作業を進めることができる。玄人志向の製品紹介ページには、まさにそういった記述が存在する。 玄人志向公式サイトの製品紹介ページには、複数のビデオカードを使うとStable Diffusionの生成速度がほぼ倍
-
突然だが、上記はこの連載の第2回の冒頭部分だ。連載をはじめた当初は右も左もわからない状態だったので﹁Stable DiffusionはMacでは使えない﹂と断言してしまった。思い出すたびに冷や汗が出る。 とはいえご存知の通りStable Diffusionを動かすのにNVIDIAビデオカード搭載のWindows機が向いているのは事実なので、これまではすべて新規購入したゲーミングPCで作業することになんの不満も感じていない。 だが、前回紹介したStable DiffusionのUI環境のインストールや更新がワンクリックで可能になる﹁Stability Matrix﹂を使えば、PythonやPipのバージョンといった難しいことを考えなくてもMacで画像生成環境を作れるのではないかと考えた。 お詫びから7ヵ月、ずいぶん遅くなったがようやく伏線回収である。 Stability MatrixでM1
-
前書き🤔これは何RIZさんという一見AIイラストレーターを装った風来のシレン廃人にそそのかされて作ったちちぷいチャレンジが多数の愉快犯たちにおもちゃにされた結果書かないといけなくなった記事です。 Stable DiffusionやMidjourney、Nijijourney、NovelAIの使い方を詳しく解説した文書は数あれど、ふだんパソコンを使わない一般の人向けまで踏み込んで網羅している解説記事って案外ないかもな?と思ったのもきっかけではある! 書く前からわかってたんだけどボリュームがヤバいので稚拙な表現や抜け漏れ多数だ。公開後もちょくちょく手を加える可能性大だから、もし更新が気になるようであれば筆者のX, Blueskyアカウントをフォローするなり、気が向いた時にこのnoteに戻ってきてくれよな!! しばらく前提条件を書いておくので、とっとと中身を読みたい人は飛ばしちゃってください。
-
AIイラストが理解る!StableDiffusion超入門︻2024年最新版︼A1111、Forge対応 こんにちは、2022年10月からAIイラストの技術解説記事を連載してます、賢木イオです。この記事は、これまでFANBOXで検証してきた120本︵約70万文字︶を超える記事をもとに、2024年春現在、画像生成を今から最短距離で学ぶための必要情報をまとめたメインコンテンツです。 これから画像生成を学びたい初心者の方や、手描きイラストにAI技術を取り入れてみたい方が最初に読む記事として、必要知識が網羅的に備わるよう解説しています。素敵なイラストを思い通りに生成するために覚えるべきことを紹介しつつ、つまずきやすいポイントや参照すべき過去記事、やってはいけないことなどを紹介していますので、最初にこの記事から読んでいただくとスムーズに理解できるはずです。 解説役は更木ミナちゃんです。よろしくお願い
-
10月1日頃、OpenAIの新しい画像生成AI﹁DALL·E 3︵ダリ3︶﹂が徐々に使えるようになり、その性能の高さから話題になっています。まずサプライズで使えるようになったのがマイクロソフトのBingチャット。日本語で﹁猫の画像を作ってください﹂などと入れるだけでかわいい猫の画像が出てくると。これが無料で使えるのは衝撃的です。マイクロソフトが巨大資本で他の会社をつぶしに来たなという感じですね。どう考えても、今のところはサーバーコストが果てしなくかかる赤字サービスなのは間違いないので……。 ﹁ラーメンを食べる女の子﹂が描ける! なにより衝撃的だったのは、﹁アニメ風の少女と猫が遊んでいる姿を作ってください﹂というリクエストに対し、一発で完璧な正解を出してきたことです。Stable Diffusionだと苦手とされていた指も適切に描写されています。もうひとつの着目点はオブジェクト間の関係性です
-
ChatGPTの新しい画像生成AIのDALL-E 3は、かなり自由に画像をコントロールすることができます。1.リアル画像のコントロール>20代の日本人女性の写真を作成してください。 生成された画像>3番目の女性の眼鏡をはずして、喜怒哀楽の表情を見せてください。 生成された画像※1枚目の画像以外は眼鏡をはずしてくれませんでした。また、喜、怒、哀の表情は描いてくれましたが、楽の画像は生成できませんでした。 >この女の子を、1.走らせてください。2.座らせてください。3.ジャンプさせてください。4.逆立ちさせてください。 生成された画像※3枚目までは上半身だけの画像なので、ジャンプしているかどうかはよく分かりません。4枚目はちゃんと逆立ちしています。 >縦長画像にして、全身を見せてください。 生成された画像4枚目の画像※これで、3枚目の画像がちゃんとジャンプしていることが分かります。4枚目は、
-
また、Emiと同時にクリーンな画像生成AI、Manga Diffusionの概念実証版も公開します。この画像生成AIはパブリックドメインの画像や著作権者から学習を許可された画像だけを学習しています。 ︵以下、画像生成AIのことをモデルとも呼びます。︶ Emiの特徴1.AIアートに特化このモデルは、アニメやマンガのようなAIアート生成に特化しています。GMOインターネットグループが提供する﹁ConoHa byGMO﹂のトライアル版の採用により最先端の開発機材NVIDIA H100と、画像生成Stable Diffusion XL 1.0、 AIPicasso社のノウハウを用いて高品質な画像が生成されるように尽力しました。参考として簡単な生成例を以下に紹介します。 比較のために、これまでのモデルと今回のモデルでほぼ同じ内容を生成した例を示します。これまでの生成画像よりも約2倍高精細になり、最
-
このところ暇さえあれば画像生成AIを使っていろいろな画像を出力することにハマっているムラリンです。私が主に使っているのはMidjourneyなのですが、こうした画像生成AIを触りはじめた人が、誰でも一度はチャレンジするお題に、﹁自分の似顔絵やアバターを作る﹂というテーマがあります。 絵画や色鉛筆画のような肖像画であればさほど難しくはないのですが、ほとんどの人が求めているのがアニメのようなタッチの似顔絵です。ところが、実のところAIにアニメタッチの自分の求める似顔絵を吐き出させるのはそれほど簡単ではなく、たいていは残念な結果が出力されるかまったく似ないかで挫折することになります。たぶん、この記事に目を止めてくいただいた方の中にも、そういった方が多くいらっしゃるのではないかと思いますが、今回はそんな方たちのために、いくつかアニメ調の似顔絵キャラクターを作成する方法をご紹介したいと思います。 も
-
1