Stable Diffusionさん、解像度1920x1080だとVRAM64GBでもメモリ不足😰 [422186189]
■ このスレッドは過去ログ倉庫に格納されています
$ python scripts/txt2img.py --W 1920 --H 1080 --prompt "a photograph of an astronaut riding a horse" --plms --ckpt models/ldm/stable-diffusion-v1/sd-v1-4.ckpt
# 中略
RuntimeError: Invalid buffer size: 62.57 GB
https://ja.stability.ai/stable-diffusion 何人か指摘してるけどNVIDIA H100が単体でVRAM80GBある
勘違いしてたけどSLI………NVLINK😠を使ってもお互いのVRAMの中身を読み込むことはできないとのことなので、80GBが限界なのかな
NVLink BridgeでGPUを繋いでも1GPUにはなりません
https://www.hpc.co.jp/tech-blog/2023/07/10/nvlink-bridge-doesnot-fuse-gpus/ >>74
追記、GDDR6はボード直付けだからあの速度を出せる
取り外し式にしたらチップまでの物理距離が伸び、電気的特性が悪くなるから速度を落とさざるをえない >>63
CUDAは並列計算の最たるものだと思うけど NVIDIAがこれからAI生成用のグラボ作るからその頃には解決するんじゃね
まあTiledVAE使えば今もできるけど時間はかかるわな >>51
M1, M2はユニファイドメモリでCPUとGPUがメモリ空間を共有してる
だから、メインメモリからVRAMに転送して〜とかやる必要ないから処理速度そのものは高速
Stable Diffusionに低解像で画像作ってもらって
あとから超解像したらあかんの? 最初の生成は512x512で高速ガチャ生成して気に入ったやつを拡大再生成出来るはず ゲーム用に4070tiに買い替えたから二月程前にハマってたけど性癖にささるの一通り生成して飽きたな
久しぶりに見てみたら結構アプデ来てるみたいだったけどみんな最新近くにしてるん?
やってた頃はアプデ一度もやらなかったけどアプデするとエロが出にくくなるとか聞いたがどうなんだろ >>82
それでいいけど1が使ってるdiffusers直の使い方には
拡大機能が無いと思う
Hires. fixとかautomatic1111が追加した後付け機能だし >>84
プロンプトでガチャしてるだけだと
似たような構図ばかりになるから飽きる
創作活動と言えるほどの深みがない >>83
小さく生成→拡大再生成と最初からデカいのとではディテールの細やかさが違う >>87
物体の数とかね
集合写真みたいに大人数を出したいんであれば、初手から高解像度である必要がある Tiled DiffusionやControlNet Tileじゃあかんのか?まぁこれはこれで小人が発生する問題があるんだが
単なる高解像度指定は奇形化かムカデ人間になるだけやで >>78
単体のGPUの縛りって意味でかな
GPUのVRAMメモリに依存しない並列処理かなァ
まあ現状はNVIDIAが自分とこのGPU売りたいだけかもだけど RTX4070ってLORAくらいはできる?
買い替え予定のパソコンがそれなんやが 4060tiの16g安くなったらと思ってるけど
素直に4070の12g買った方が良いのかな? >>93
明確にやりたいことがない限り4070でいい
4060はメモリの帯域がチンカスすぎるので生成がクソ遅いしゲーミング性能も微妙
VRAM16GBでなきゃ不可能な拘りがあるならもっと上のモデル買えって話になるのでわざわざ買う必要はない ■ このスレッドは過去ログ倉庫に格納されています