画像生成AI﹁StableDiffusion﹂の進化が止まりません。昨年8月にオープンソースとしてリリースされてから、世界中のプロアマ問わず多数の人たちが様々な研究成果を反映させ、毎日と言っていいほど新機能を誰かが発表するという状況が起きています。 StableDiffusion登場当初は、画像の品質のランダム性が高く、構図やポーズなどを指定できないという弱点を抱えていました。1枚の画像をもとに画像を生成する﹁i2i︵image2image︶﹂である程度コントロールすることはできても、﹁キャラクターに特定のポーズをとらせる﹂といったことは非常に難しかったんですね。 その状況を一変させる新機能が今年2月に登場しました。その名も﹁ControlNet﹂。プロンプトによる制約を克服するための、とてつもないポテンシャルを持つ技術でした。Stable Diffusionに次ぐ﹁2度目の炸裂﹂と言って
![画像生成AIに2度目の革命を起こした「ControlNet」 (1/4)](https://cdn-ak-scissors.b.st-hatena.com/image/square/9e58f52f2d69f9aa313443bcab694ab9520dade4/height=288;version=1;width=512/https%3A%2F%2Fascii.jp%2Fimg%2F2023%2F05%2F19%2F3538912%2Fxl%2Fab9df6f158ffdb47.jpg%3F20200122)