Stable Diffusionさん、解像度1920x1080だとVRAM64GBでもメモリ不足😰 [422186189]
■ このスレッドは過去ログ倉庫に格納されています
$ python scripts/txt2img.py --W 1920 --H 1080 --prompt "a photograph of an astronaut riding a horse" --plms --ckpt models/ldm/stable-diffusion-v1/sd-v1-4.ckpt
# 中略
RuntimeError: Invalid buffer size: 62.57 GB
https://ja.stability.ai/stable-diffusion グラボとモデルデータを入れているストレージが一気に消耗するから
うかつに手を出さない方がいいぞ・・・ 最先端の技術を実装している連中はNVIDIAの高いやつ使っているだろうから最初は大量にメモリー使うけれども時間が経つと節約する改良されたり使い方が出来たりするようになり みんな低スペPC使ってる貧乏なんだな
最近2TBのやつ1万で買ったけどその程度の拡張すら文句タラタラやん 新しくインストールするのはどれが簡単?
インストールし直しがめんどくさいから去年からずっとNMKDってやつ使ってるわ VRAM 2TBなら一目置いてやるけどSSDでイキられても反応に困るよ りんごのM2とかだと内蔵GPUでメインメモリフルに使える話があるらしい >>46
SD1.5でもLora学習すると32GBじゃ足りないな俺は64GBにした
一時キャッシュでピーク40GB位持ってかれるから
ページアウト発生でSSDにダメージを与える stable diffusion XLのモデルやLoRAが色々出て来て生成楽しくなって来たから4090買うかどうか悩んでいる >>42
目立つだけで皆無に等しいかと
全PCユーザーの中で1650相当のよわよわなグラボでさえ
積んでるのは、わずか「1.6%」
その中から4090積んでるのはなん%なんだ?同じくサハラ砂漠から特定の砂粒見つけるぐらいだろう
てことはAIなんか出来る奴もやってる奴も人口比で言えば皆無に等しい 有名人loraってあまりないけどやっぱり規制かかってんのかね
自重してるだけ? >>56
韓国アイドルはモデルデータ出ては消されのいたちごっこ >>56
有名人って程ではないけど日本のアイドルを探しているならデッドマン555が学習させてるモデル まあそのまま使うならともかく、
絵の研究とか参考用で使うならそんな高解像度いらんよな AIって操作側のPC性能も要求されるんだな
じゃ、文章生成AIも高スペックほど文章が洗礼されてくるのか? >>17
AIアルゴリズムが並列処理出来ないのかね
シングルタスクか 学習モデル作っている人達はAIエンジニアでもおかしくないでしょう まだ今のAI処理は過渡期なんだろう
動画処理でいったらMPEG1からMPEG2にやっとなりつつある感じかな
マシンパワーもメモリもリソース多量に消費する
MP4になって劇的に進化ようにAI処理もあと5年10年のかな comfyUI使えばVRAM4GBでもSDXLが余裕で動く 1920x1080で学習するのが主流になったのか?
飽きてから学習素材集めしかしてなかったけどまたやろうかな >>62
操作側って言い方はネット上での生成だと思ってるっぽいけどこれは全部自分のPC上で完結してる奴だよ H100が80GBだからそれが最低ラインか
SLIもありうるな >>32
思った通りの絵を出すには
そのイメージを「自分の手で描く」ことが必要
絵の指示なら絵が一番良いに決まってる
テキストの指示だけでガチャしようとする奴が多いけど
それだと似たような構図ばかりになって
つまらない使い方しかできん おじいちゃんH100はSLIじゃなくてNVLinkよ >>40
メモリの速度が遅かった20年前にはあったが高速化で無理になった
DDR5は4.8GHz、GDDR6は16GHzなので後付にするとDDR5まで速度が落ちる
DDR5(128bit)とGDDR6(384bit)ではバス線の数が違いすぎてマザーボード1枚分ぐらいのスペースを必要になる 何人か指摘してるけどNVIDIA H100が単体でVRAM80GBある
勘違いしてたけどSLI………NVLINK😠を使ってもお互いのVRAMの中身を読み込むことはできないとのことなので、80GBが限界なのかな
NVLink BridgeでGPUを繋いでも1GPUにはなりません
https://www.hpc.co.jp/tech-blog/2023/07/10/nvlink-bridge-doesnot-fuse-gpus/ >>74
追記、GDDR6はボード直付けだからあの速度を出せる
取り外し式にしたらチップまでの物理距離が伸び、電気的特性が悪くなるから速度を落とさざるをえない >>63
CUDAは並列計算の最たるものだと思うけど NVIDIAがこれからAI生成用のグラボ作るからその頃には解決するんじゃね
まあTiledVAE使えば今もできるけど時間はかかるわな >>51
M1, M2はユニファイドメモリでCPUとGPUがメモリ空間を共有してる
だから、メインメモリからVRAMに転送して〜とかやる必要ないから処理速度そのものは高速
Stable Diffusionに低解像で画像作ってもらって
あとから超解像したらあかんの? 最初の生成は512x512で高速ガチャ生成して気に入ったやつを拡大再生成出来るはず ゲーム用に4070tiに買い替えたから二月程前にハマってたけど性癖にささるの一通り生成して飽きたな
久しぶりに見てみたら結構アプデ来てるみたいだったけどみんな最新近くにしてるん?
やってた頃はアプデ一度もやらなかったけどアプデするとエロが出にくくなるとか聞いたがどうなんだろ >>82
それでいいけど1が使ってるdiffusers直の使い方には
拡大機能が無いと思う
Hires. fixとかautomatic1111が追加した後付け機能だし >>84
プロンプトでガチャしてるだけだと
似たような構図ばかりになるから飽きる
創作活動と言えるほどの深みがない >>83
小さく生成→拡大再生成と最初からデカいのとではディテールの細やかさが違う >>87
物体の数とかね
集合写真みたいに大人数を出したいんであれば、初手から高解像度である必要がある Tiled DiffusionやControlNet Tileじゃあかんのか?まぁこれはこれで小人が発生する問題があるんだが
単なる高解像度指定は奇形化かムカデ人間になるだけやで >>78
単体のGPUの縛りって意味でかな
GPUのVRAMメモリに依存しない並列処理かなァ
まあ現状はNVIDIAが自分とこのGPU売りたいだけかもだけど RTX4070ってLORAくらいはできる?
買い替え予定のパソコンがそれなんやが 4060tiの16g安くなったらと思ってるけど
素直に4070の12g買った方が良いのかな? >>93
明確にやりたいことがない限り4070でいい
4060はメモリの帯域がチンカスすぎるので生成がクソ遅いしゲーミング性能も微妙
VRAM16GBでなきゃ不可能な拘りがあるならもっと上のモデル買えって話になるのでわざわざ買う必要はない ■ このスレッドは過去ログ倉庫に格納されています