「DALL-E 2」や「Midjourney」は、素晴らしい機能を誇るが、しかし、実は生成できる物にはある程度制限がある。それは、著名人や有害とみなされるコンテンツを描いた画像を生成できないようになっているのだ。

今回、英国のスタートアップ企業 Stability.AI が発表した「Stable Diffusion」にはそういったフィルターがないとのことだ。

Stability.AIは、「Stable Diffusion」について、数週間後の一般公開に先立ち、まずは1,000人強の研究者に公開すると発表した。

「Stable Diffusionは、研究者とすぐに一般のユーザー両方が、様々な条件の下でこれを実行し、画像生成を民主化することができます。我々は、潜在空間の境界を真に探索するために、これとさらなるモデルの周りに出現するオープンなエコシステムを楽しみにしています。」と、Stability AI CEO兼創設者のEmad Mostaqueは、ブログで述べている。

とはいえ、有名人の偽画像を作ることは、既にディープフェイクが問題になっていることからも、倫理的に大きな問題になる可能性もある。また、システムが出力する制限のないコンテンツを自由に利用できるようになると、ポルノや生々しい暴力など、悪質な業者に加担する結果にもなりかねないだろう。

https://texal.jp/2022/08/13/stable-diffusion-an-image-generation-ai-with-virtually-no-filtering-is-now-accepting-beta-testers/