AIで色々遊ぶにはVRAMが12GBあればいいことが判明 8GB以下はしぼんぬ [672717812]
■ このスレッドは過去ログ倉庫に格納されています
1080tiってもうけっこう経つのにVRAM12G積んでるから現役で使えるいいグラボだよな 3070と3060 12GBを同時に書き出ししたら
3070の方が早く終わったんだってよ 3060tiちゃんでやってるけど1000*1000位の画像サイズになるととたんに作画崩壊するね
設定とかがだめなんかも知らんけどここでたまに見る写真みたいなのが作れんで悲しい 今開発中でリリース間近?の新技術は32GB必要らしいけどな
NIVIDAは5000シリーズで増やしてくれるのだろうか?
海外フォーラムでは企業に独占させるな!って声がちょくちょく上がってるけど そもそも演算してすぐ吐き出す必要性のあるゲームはGBいらないからな3060から増えてないのはそれが理由やで
今からAIが流行ったらまた変わりだすかもしれない 最初は容量だけ多い雑魚って馬鹿にされてた3060だけど段々評価されてきたな >>12
何でそっちに最適化しないのかも謎だよね
そんなにVRAMいるなら
AMDも傍観せずにオープンソースなら関わればいいのに
あとVRAMは学習ではPS5のようにPCのメモリ使えばええのに 別にゲーム会社が持ってるPS5ゲーム開発キットがあれば
ゲーム開発キットでイラストAI演算部分を作り
i5グラボ無しのノートPCで設定作ってLanでPS5に設定渡して
PS5で演算して結果の画像を
Lanで確認なんてこともやろうと思えばできるよ
ただそれはやろうと思えばできるってだけの話で
できてないけどねw DreamBoothが出来ないだけだろ
どれも使い方わからんけど >>21
昔のdbまではwebuiに入れてくれて説明サイトもあったがloraはそういうの少なくて分かりにくい 究極言ってしまえばさ
そもそもグラボすらいらないんだよ
自分がやりたい演算設定で計算させたいだけだろ
グラボはPCに刺さっている必要性はない
もちろん倫理的に問題あるイラストを作る場合は
自分のPCに刺さってたがいいが
よーく考えてみろ
家のPCにあるグラボでやらないといけない理由なんて1ミクロンもないからなw 久夛良木が開発したCELLって奴ならAI余裕なんだろ?
CELLコンピューティングってそういうことだろ? >>22
俺も少し触ったけどLOLAはエラー吐くしTNは出来たけどただ絵が下手になるだけだしでさっぱりわからんから諦めた
8GBだしもともとオモチャにしかならないだろうしな… メモリ暴落してんだし5060あたりなったら24GBくらい載せるやろ。 Bingに聞いたらRTX A4000オススメされたわ 金のなる木だからな
ここのパーツでケチる意味がねえよ Azureとかで出来ないの?
わざわざグラボ買いたくない VRAM12GBかあ…わかた!
俺らのメイン機として活躍してくれた富士通文教モデルももう限界なのかもな… ちょっと前まで6Gじゃ何もできなかった
アルゴリズムの効率化でどんどん必要メモリ量が下がってるからそのうち12Gなんて要らなくなるよ そもそもあんだけクソデカなグラボ作ってるメーカーにとっては、DRAM増やすなんて簡単じゃないの? >>35
クラウドでもできるよ
遥かに割高になるけど >>7
512x768くらいで生成して良さそうなのをhighres.fixでアップスケールじゃ駄目なんか
https://i.imgur.com/Trey62j.jpg 未だにLoRAのやりかたわかんないケンモジはこのアフィサイトでも見てろよ
https://economylife.net/kohya-lora-install-use/
あとVRAM8GBあれば快適ではないけど出来ないことはほぼ無いから 最適化を進めれば8GBでもこなせるようになるでしょ
一番普及・流通してる容量なんだし みんな、ビットフライヤーやったか?
今なら期間限定で6000円もらえるぞ!
1500円分なら本人認証後翌日
残りの4500円は来月中旬にもらえるぞ
この機会に6000円もらおう!
2月28日午後11時59分までだぞ!いそげー!!6000円祭り復活!!
エントリーページからエントリーを忘れずに!
https://i.imgur.com/3KVqv4M.jpg https://majinai.art/i/EAH72dp.png
4080でこの画像が1分半くらい
512☓768で作ると7秒くらいで出る
仕上げで盛りまくると1分は超える
多めにメモリ使ってるのか13G超えてた >>48
そのサイト通りやったけどエラー吐いて出来なかったぞ >>52
時間かかるな
エロ動画探しに行くほうが楽だわ >>52
マジで絵師消えるレベルだな。7秒はヤバすぎ。ちな、これってあらかじめモデルや背景のサンプルがパッケージ化されててそこに対してコード書くの?それとも自分の持ってる画像食わせるの? な、だからVRAMも大いに越したことはなかったのに糞vidiaがよ >>52
4080で512x768に7秒もかかるか?
Lora多用してるとか? >>58
パッケージというかpromptに一般用語入れるだけ
ゼロから一発高画質で1分半くらい
構図が決まってるi2iなら秒で出るよ >>57
帰ったらやってみる
>>61
リアル系でloraは入れてる
入れないと全然別物になるので試しても意味ない 1050tiでもちょっとは遊べるのか、いいこと聞いた 自分で生成できるようになるとエロ絵の価値観が変わるな ハイスペックだと2K画質とか横長の画像も作れるけど高確率でグチャグチャになるから使い物にならん
あと学習は設定によるけどVRAM80GBとか食うのもあるからクラウド借りるのが当たり前になってる
3060 12GB以上は金の無駄
ちな、これが3分で出せる
https://i.imgur.com/CfiDHhp.jpg >>62
ありがとう!数ヵ月後は動画すな
こんだけ綺麗な絵が文字入力でゼロからできるって不思議な感じだわ。 実写系は2K画質で出さないと描き込みしょぼすぎなんだが
空白に変なもの描き込みまくるから奇形の通行人とか沸いてきてキモいんよな 絵作りはもういいよ
終わった
金になる作品のプロデュースに主題を移行しよう >>73
やるならゲームでしょ
毎日イラスト200枚刷って選別とか精神にも害があるからやめたわ
ゲーム作ってるやつにピクセル化してサンプル適当に送ってる >>28
エラー内容がxformersならsd-scripts\venv\Lib\site-packagesにxformersとxformers-0.0.14が入ってないせいかもしれない他なら分からない
俺がやってるのはポップアップバージョン学習サイズは512までしか上手くいかないけど コミケとかAI禁止にしたりはしないのか?
しないならどうなりそう? >>78
好きなキャラ出したいなら必要
有名キャラ使いたいだけならいらない >>78
やれば好きな絵柄キャラポーズ衣装を出せるようになる上手くやらないとガチャ率上がるみたいだけど
ポーズは学習からコントロールネットとかいう他の絵からポーズのデータを取り出して絵に指定するやり方が流行りだしてるみたい自分でポーズデータも0から作れるとかなんとか >>79
有名キャラも初音ミク以外は元モデルに学習してくれてるか分からないから作っておいた方が色んなのに使えるかも openposeは白背景固定出来ないならゲームに使えんな >>85
もってかれる?
学習されてサーバーに上げられちまう? 960GTXなんだけど、安くてそこそこいいのは、RTX3060買っとけばいいのかな? どうせグラボまで買ってやるならリアル系のこういうのを好きな子の顔で学習して作れるようになろうよ
https://i.imgur.com/Javji4p.jpg >>91
あった方が今できることはストレスなくできそう
ただ高い12GBは6万位で届くある程度できる距離だから 最終的には大量に作ってガチャをひくんだから1枚の作成に1,2分レベルで時間かかってたら論外だよ これから先言語モデルもローカルで出てきてるみたいだから12GBじゃ物足りないと感じる時代もくるかもしれないし有識者たちが8GBで使える要にしてくれるかもしれない なんか…絵ガチャだな
ツボる画像をうまく出せないだろうし
残るスキルがなさすぎる
見るやつの目も肥えていって要求厳しくなりそうだし
既存絵師は死ぬとしてAI絵師もはたして儲かるのか? VRAM6GBでもlora動いて楽しいよ
絵ガチャが辞められない 以前のスレでintelが論文書いた奴を囲い込んでると聞いた ローカル向けに最適化進んでるから今焦ってグラボ買うと泣くハメになるぞ(´・ω・`) 様子見なんてしてたら勝てないで
もう遅いくらいなのに
自分で楽しむだけならべつにいいんだけど 参戦だの勝つだの、お前ら誰と戦うつもりだ
やりたくなった時にやりゃいいんだよ >>47
ほむ・・・よく分からんが明日勉強してみようと思うhighres.fixでアップスケールねやってみる Microsoftが1兆円を投資した
ってのは1兆円を給料で払ったんだ
MicrosoftだけじゃないGoogleもそうだ
AI使える人に給料を払ったわけだ気付け 効率悪くなってもメインメモリ使って処理してくれたりはしないの? やりたいけどこれのために新しいパソコン買うきはなぁー。DTMちょっといじる程度でほぼYouTube視聴機。中古で買った2070メモリ64の第4世代だよ笑ってくれよwゲームもまったくやらないからこれ壊れたらパソコン卒業すわ。 今どき3060 12GB買ってる人はそれが目的でしょ 4060が8ギガだったら3060高騰する可能性あるか ゲーミングPCの上をいく
新たな商品カテゴリーができるのか? https://i.imgur.com/HlBKx6u.jpg
PCをデスクトップからノートに換えたお陰か気象による差異か分からんが、
電気使用量は去年より確実に下がってるのに電気代は上だわ
ここに24時間稼働の3060デスクトップ足したら死ぬだろうな
4月からめっちゃ値上がりするし ゲーミングPCがどうのこうの言ってた連中はウソだから
本当の目的はマイニングだの機械学習だったんだよ
大人に騙されちゃいかんよ >>70
動画は既存のdeepfakeがavの顔を置き換えるように
身体ごと置き換えるのが流行ればいいだけじゃないかな
児ポが簡単に作られるのが明らかだから提供されてないだけだと思うわ >>124
ポルノ生成pcを正直に謳えば
よっぽど日本のおっさんのITリスキリングにも役立つな まぁ絵描きについては去年の8月からなんだが
しかし毎日ゲーミングPCだのグラボだのスレが立つ割に
嫌儲民なんてどいつもこいつも最新ゲームなんて遊んでねえし
いつもFF5の話題くらいしかない、実際最新ゲームなどにグラボを使ってるわけじゃねえってことだ
PS5に関しては転売したいってだけだったし、オッサンってのは裏があるわけよ >>69
この絵ぶっ刺さってるんだけど何入れればいいか教えて🥺 >>129
stable diffusionの導入から教えてくれって話ならお手上げやけど使ってるものは無料記事で全部書いてある
まあ導入もやる気あるならググればいくらでもあるけど
https://nw09.fanbox.cc/ >>129
stable diffusion本体もこれ見たら猿でも出来るわ
https://nanorisia.com/stable-diffusion2-1-web-ui/
あとは記事通りにモデルとLORA用意して呪文入れたら出せる VRAMじゃなくてPCのメモリでいけるようにしろよな >>131
導入したばかりでどう手を付けたらいいのかわからなかった
ありがとう🤗🤗🤗 アリエクでGDDR買って張り替えればコスパいいのでは? >>137
いつからの話から知らんが、GPUが積まれる様になってからは確固たる物になってんじゃないのか コスパの3060か、カネあるなら4090だろうな
4090は爆熱問題あるけど >>132
すまん最低スペック届かないから無理だわ
やっぱ猿でもできないじゃん
猿舐めすぎだろ 電気代気になる人は電圧下げてパワーリミットもかけるべき >>141
PC自体が比較的新しく処理能力あるならCPUでも出来なくはないよ
GPUの10倍以上時間かかるけど VRAMが多いRadeon向きだと思うのになんでGeforce向けに書いちゃったんだよ 金持ちしか絵を自由に生成出来ないの差別だろ
貧乏人にもグラボ配って電気代も政府が肩代わりしろ 自分は試してないけどスマホでも出来るそうだよ
GPU無しの場合スマホの方が早い位だそうな Pytorchがcuda使ってるからvramでしか動かないんだと思う
このあたりなんとかすれば普通のramでもいけるようになるんじゃないか 一週間くらいいろいろやって飽きた
来週PC届くんだがもう要らねえ 日本は電気代が高いから電気代の安い国外でリモート画像生成するのが流行るかもしれない 広い平野に太陽光パネルをいっぱい置ける所は昼は無料で電気を生成できる
自然エネルギーは無料だから 夜になったら地球の反対側で太陽光発電してリモート画像生成すればいい
そうすれば1日じゅう電気代が無料 いや、そこまで作りたい画像あるか?
適当に剥ぎコラ何回か作ったら飽きるだろ 俺は1050 2Gでヤッてたぞ
時間がかかるから1070に買い替えたけど 俺の3070がゴミに
くそおおおおおおおおおお
VRAM8gbくそおおと 1050は2016年 - 2018年前半のGeForce 10 Series製品群 AIに興味ないからこの流れで3070安くなってくれんかのう 実際にPC環境用意できない貧乏メンがAI妄想膨らませてるだけで実写系アウロリ立ち姿のピンナップ1000枚も出力したら飽きるオモチャだよ 3060だけどゲームでは人権なかったのにまさかAIでお前らに勝ってしまうとは >>129
くろくまそふとさんの記事がわかりやすい
自分はNMKD Stable Diffusion GUIに
モデルはCounterfeitとAbyssOrangeMixを入れて使ってる
驚くほど簡単に良いイラストが出るよ
後ネガティブプロンプトが重要
https://www.google.com/amp/s/kurokumasoft.com/2022/12/20/howto-install-stable-diffusion/%3famp=1 3060が3060tiに煽られてたのに逆転大勝利なの笑うw >>166
性能は関係なくGPUのメモリが12GB以上あればいいと言ってるように見えるが? >>164
ほぼ同等性能の1080tiでゲーム困ってないぞ
設定下げてFSR使えば144は大体出る つか最近AIスレ毎日たってんのなんでなん?めっちゃ進化したとか? これクアドロじゃ駄目なの?
あんまりゲームしないんだけど 抜けるんだよ
エロパワーだよ
発展途上でポテンシャルも高い >>148
次のMac Proは外部GPU対応するんだろ。
Intel MacならサンボルからPCI変換とかでつながりそうだけど、適材適所だろう。自作してsshでmacから操作するのが現実解 DBなんかいらんいらんLoraさえあればいい8GBでいけるぞ >>168
使えない
プロントの数に制限があったりするけど簡単で使いやすい
初めてのさわる人はこっち使って踏み台にすれば良いと思う
LoRA使うならStable Diffusion web UIの方で よく見たら画像生成だけなら6GB以上あればがいいと言ってるね
全てのタイプの学習をするなら12GB以上 複数のマシンでネットワークレンダリングみたいな事はまだ出来ないの? VRAMが少ないなら少ないなりにやりようはある
でかい方がいいけど 熟女が描画できるモデル無いんか。
milfと指定してもmatureと指定しても黙殺されて泣いてる >>164
出始めがぼった値だっただけで46000で買えるんだから悪くないよ
普段はこいつ省エネだし 3060てゲームで人権ないのかよ
どれ買うのがいいん? 学習はすごい手間がかかるぞw
何千枚何万枚もの画像を用意してAIに時間をかけて学習させる
誰かが学習したデータをダウンロードして画像生成だけしたほうが楽
しらんけど >>178
automatic1111のプレリリース版あるからそれ落とせばいいよ 3060tiで12GB版出して欲しい
3060じゃ足りない 3060 12GBもう安くならない感じ?買い時逃したか NVIDIAがVRAM商法(割高なAシリーズ買え)やっててつらい aiに興味あるけど今更3060は買えない
とりあえず4070出るまで様子見だわ 8GBで十分
LORAも行ける。
そもそも無修正おまんこ作りたいだけで学習なんてお前らやらんだろ 3080出たばっかの時に買ったけど勝ち組だったり負け組だったり忙しいわ
10GBでもなんとかなるかね DBってDreamBoothか
自分でモデルを作るにはどのくらい必要なの? NVIDIAは露骨にVRAMケチってるからなあ
RTX4060がいまだ8GBとか少ない
4070は10,12,16GBと複数あるかもという噂だが 3060の12gbはあんまり値段下がらなかったな
12gbがいつまでもあると4060が売れなくなるしなぁ😱 まあでもVRAMを8GBに据え置くことでAI需要を抑制して価格高騰を抑えられるともいえるか 学習したいなら要るだけで描くだけならたいしていらない >>207
メモリ量の違いってスピードだけではなくて出てくる絵も違うのかよ
もう8GBモデルは買えないな 時間をかければ同じメモリ量でも高解像度画像出せるんじゃないかな試してないけど 512×512でやるなら盛りまくれるからスピードしか違わない
解像度2倍以上からメモリがあったほうが盛れるし出来栄えが精密になる 時間以外でVRAMの差が大きいのは学習関連だけじゃなかったのか >>207
こんなの見たら4090しか買えねえじゃん 低解像度を引き延ばして比較したら
そりゃ高解像度の方が良くなるに決まってるやろ
アホか >>209
でかいと良くなると言うわけじゃなく、ただの乱数の問題だぞ >>96
自分の画像を学習させてLoRA適用すればかなりいけるが現状完璧にはならない ある程度の品質のテクスチャーを確保しようとしたら解像度も必要になる
だからVRAMある方が有利だよ
https://i.imgur.com/wY9uLT7.jpg >>222
生成された絵を完成品として使うならそうだな ワイ3090民だけどやってみるか
まだ早いかなと思てやってなかったんだよな
スリッパ3995
メモリ128 >>222
丁度昨日辺り、他所の板でそんな感じで一致しないけど何が原因だって話が出てて
それはxformersの有無だった 軽く遊んですげーでとりあえず満足
1ヶ月もすればさらに進化してるだろうからそしたらまた遊ぶ AIとかやらねえからメモリ積んで無いやつ安くなって欲しい でもエロ絵生成するだけなら無駄過ぎるんだよな
暗号通貨と同じレベル 自分で作った、という気持ちがバフになっている感がある。
今までは誰かが用意してくれたCGで抜くしかなかったけど
AIは自分であれこれ指示して狙い通りの画像を自分でいくらでも用意できるわけで
それが心情的に興奮する作用になってるの感じる俺は それはちょっと違う感じがするな
自分で描いた絵で抜く奴はまず居ないぞ
要望した物が出てくるって所じゃないのか それに最先端に参加してるというのはやっぱりすごいよ
話題にも乗れるし、なんせ仕事にもなり得る
世の中の殆どが理解できてない事が出来るってだけでやっぱ仕事頼むからみんな 見る側はぱっと見の印象が良けりゃ満足なのかもしれないけど
もうちょっとちゃんと加筆して欲しい… メモリ容量を調べてみた
3年待てばVRAM容量が2倍になる!!!!! 文字学習させてロゴ自動生成できるようになったら起こして 元手描き絵師でしばらく筆折ってたけどAIで描こうと思ってる
VRAM12GBの相場ってどれくらいなの?
50000くらい? >>219
イングヴェイにアンガス・ヤングまで混ざってやがる なんか金儲けに使えないのかな
マイニング終わって遊ばせてるグラボ多いやろ >>219
高いグラボをつかって作るのが晋三なのか パソコンもビデオカードも電力も金掛かるなぁ
遊びでやるにはハードル高い
自らシコる為に作るならわかるが間違っても安倍晋三なんか作ってられないw AIイラストが流行るまでGTXで耐えてたら気持ちよく買い替えられただろうなあ
中途半端にRTX2070とか買ってたばっかりに306012gbでコスパ最強wとか言えない スレタイ見てうちのRadeon7(16GB)ちゃんが大活躍しちゃう?!と思ったのに・・・ >>241
価格コムで3060 12GBモデルの相場見たら分かる そんな昔のネット民みたいな遠回しな言い方せんでも
5万前後で間違っていないと教えてあげればいいのに 軽くググったら50000やったからとりあえず聞いてみたんや
>>251
サンガツ
HBM2ってなんで普及しないの?
>>219
例の靴紐の再現は無理だったか…
>>252
同スペックだけどDLSSとかもあるし… macで誤魔化してたけど流石に3060ポチったぜ
金貯めてすぐに4090も買うつもりだけどな
こんなビッグウェーブはもう2度と無いぞ
乗るしか無い RTX3060が正解だったのか
他のグラボはアホみたいに高いしな 生成するだけなら俺の1070ちゃんでもちんこ乾く暇ないで AI絵生成以外で使う事ねーから8GBある3050がコスパ最強なんじゃね? https://i.imgur.com/eaMWDWz.png
1060(6G)だけどメモリ溢れない限界探って960x1280に落ち着いた
3060欲しい所だけど処理速度で言うとTIと無印でどれくらい時間違うんだろ グラボねーとローカル環境構築できねーのかよクソだな グラボ高いよ
インフレ円安でもう二度と安くならないし
グラボのVRAM沢山あるほど1度に出力できる画像数も増えるんだろ
数打たないと良質絵が生まれないだろうから、やっぱVRAM優先か… これこそ嫌儲が先にAIで実写版を作って世界中を驚愕させることができたのにね
パイロット版だけでも
【SF漫画】大友克洋「童夢」実写映画パイロット版 新潟国際アニメーション映画祭で上映決定 [muffin★]
https://hayabusa9.5ch.net/test/read.cgi/mnewsplus/1677330398/ 旧2060と12gb版は違って12gb版はほぼ2060super だから3060に性能は近くてお得なのにあんまり出て来ないな
まだ現役機種で売られているのに 3090ぐらいのグラボが必要なのか
ギリ動く低スぺグラボ(1000番台)だと生成に1枚に1分以上かかるのがデフォらしい
電気もったいねえ…
グラボの性能向上とワッパの改善と円安インフレ考えると今は時期が早い クラウドでやってるけど使用制限解除まで暇だわ~
来月は即課金だわ >>219
よく見たら地味にこれ過去最高レベルじゃね?
顔がマジ本物だしピックもちゃんと持ってるし radeon 56でやってるけど1枚1分ちょいかかる
これが3060だと数秒という噂
4090なら1秒とか‥
にわかには信じられない 粗削りで拡大すると色々破綻してるけどチャレンジスピリットを評価してほしい
https://i.imgur.com/78uRmI6.jpg hires.fix
出来上がる画像の変化がブレまくりでガチャ要素が増える
なのでこれを使わずに普通にアップスケーラーするのが安定な選択
そして、hires.fixを使わない前提だと12GBもいらない
確かにこれをやって2k以上の画像を作りたいならVRAM多い方がいいが、前述のガチャ要素もある上、3060のパフォーマンスだと遅くて使い物にならん
この辺はやってみないと実感できないだろうけど エヌビディアのCEOが決算で「AIのメインプレイヤーはうちだ」みたいな事を言ってたらしいな 1660ti勢だけど人権がないらしい
イチから組む場合グラボ込み予算15万で人権貰える? >>287
3060の12GBが人権かつマジョリティだからいける >>289
へぇー面白い
カメラの知識もないといかんのだな
丁度良いブスから声掛けしずらいトップ港区女子になってしまった >>248
うわ!
クアルコムのsnapdragon 8gen2のaiプロセッサて
amdのzen4 apuとintelのMeteorlakeにも積まれるやつやん!
gpuの浮動小数点32ビットはaiにはやっぱり余計なんだね
stsble diffusionのモデルデータをai向けに8bit整数に変換してるてあるし
AMD、Zen 4になったモバイルRyzen 7000。RDNA 3 GPUとNPUも内蔵 - PC Watch
https://pc.watch.impress.co.jp/docs/news/event/1467965.html
nvidiaの値段と電気代が気になるならグラボ買うよりaiプロセッサが搭載される
amdとintelまで待ってもいいかもね せっかくグラボ業界が殿様商売できなくなりそうだったのによぉ
まだまだぼったくりは続くか >>248
2060は3050と同じかちょっと良いくらいなので、RX6700ぐらいか
1660よりもずっと早いな スナドラと同じaiチップは
intelのvpuは13th mobileから
amdのnpuはzen4 7040(モバイルのみ?)から
どちらもaiチップはモバイルがデスクトップに先行する
楽しみね 俺のiMac proのRadeon 56よりちょっと早いじゃねえか‥ショックやわ Google Colabが3050相当なので、もはや不要になるんだな
今年はハードの進化も凄そうだ >>291
悪いが反論すると
ブスと美人は女の中では違いが無くてブスだから声掛けやすいのは間違ってる
どちらも一人の女性として接してあげてください >>265
各所のベンチとか見る感じ無印とtiでだいたい25%くらい変わる
まあ1060からなら3060でも5倍速くらいになるからVRAM重視の60無印でいいと思うよ >>275
ピックきちんと持ててたら逆に本人じゃない気がする グラボでもTensorRT使えば4倍くらい早くなる >>287
俺みたいに3060に換装しろよ
メルカリで35Kだったわ
CPUは大して関係ないから 今は作りたいものに合わせてLoraさえできれば何とかなるけど今後動画とかも簡単に作れるようになりそうだしな… >>289
うおおおおおおおおおおおおおおおおおおお!!
カメラより今は美人作りたい!! AI処理にだけ特化して3D描画能力は低い廉価グラボ発売しろ >>248
7900xtx買おうと思ってたけど問題なさそうだな >>28
8gbだとそもそも動かないんじゃ?
最低10じゃなかった? >>316
512*512でも768*768でも8GBで学習できるよ。俺がやってる 絵の生成だけでそんなスペック必要なら、動画は当分無理だな
ガッカリだわ ATI Rageの頃はVRAM8MBとか16MBだったのが二十年でほぼ10倍か
>>26
AIはともかくPS3やPowerMacG5みたいな64bitPPCは低価格でクラスター組んでスパコンランキングに入り込んだりして結構世間を賑わせたな
分散コンピューティングも全盛期でPS3はそっちでも注目されたし
あの頃はハードウェアに夢があった グラボって中古で買うといいよ
使わなくなったら売ればいい
雑誌とかには新品の価格しか書いてないけど、実はもっと全然安価に使える
rtx4090とか毎回ハイエンド買ってる人も、速攻前モデル売り払ってるから >>308
むしろ研究機関向けにai専用の高級機を発売するんじゃねえの 高級っても4090で30万くらいだろ
昔パソコンに30万って当然のように払ってた気がする
なんでか今は30万払うのが重いんだが、金の価値自体がなんか重み変わった気がした >>326
実写系はアップスケーラーどれがいいのん? >>330
俺なんか512x512一枚出力するのに8分も掛けてんだぞ >>331
3060そんな遅いの? 使えないなそれ >>333
いや、CPU
それに比べたら5秒と10秒とか誤差だろ 3年待てばVRAM容量が2倍になるから!!
3年待てば安くなるって!!
徳川家康のように待て AI向けで売れるとなったら4000系の下の方もVRAM増量版が出るんじゃないかな >>334
CPUか 10秒が誤差ってなんの話? 話つながらんが 3060だけどそんな遅くない
512×512なんて他のパラメータによるけど数秒で出来る
CPU悪いと遅くなるのか? やっべワイ氏ロリコンだったわAI画像はじめたら分かったけど食わず嫌いだったんや
やっべリアルな児ポが無限に生成出来るやん?これ規制しないとヤバない? >>339
児童買春、児童ポルノに係る行為等の規制及び処罰並びに児童の保護等に関する法律
(児童買春、児童ポルノの所持その他児童に対する性的搾取及び性的虐待に係る行為の禁止)
第三条の二 何人も、児童買春をし、又はみだりに児童ポルノを所持し、若しくは第二条第三項各号のいずれかに掲げる児童の姿態を視覚により認識することができる方法により描写した情報を記録した電磁的記録を保管することその他児童に対する性的搾取又は性的虐待に係る行為をしてはならない。
(児童ポルノ所持、提供等)
第七条 自己の性的好奇心を満たす目的で、児童ポルノを所持した者(自己の意思に基づいて所持するに至った者であり、かつ、当該者であることが明らかに認められる者に限る。)は、一年以下の拘禁刑又は百万円以下の罰金に処する。 >>340
マジでヤバい…晋さんどうして…
興奮で手が震える… >>339
本当にロリなん? 勘違いしてるだけじゃないのとりあえず貼ってみなよ 3060買ったんだけど、pcie3.0のスロットに装着したらどれくらい影響あるかな?
4.0のスロットはmvme4枚挿しのカードで埋まってるんだよな。 解像度もそうだけどStepやサンプラー妥協すんなら3060でもそんな時間かからんよ
それでファンボ開くとかクリエイター向けじゃないかもしれんが単に楽しみたいだけなら3060はありなんじゃねえの? 3060だと12GBの利点があんま有効に働かないから
性能のバランスが悪い
値段のバランスは良い
3070や3080持ってるやつが3060買うなんて変な選択はしないようにな ケンモメンって文字しか見てないくせに無駄にスペックが高いもの使ってそう >>346
そもそも2ギガとかあからさまに無理なグラボはともかく実際に今のパソコンでできるか試しもせずにグラボ買うのはアホらしいっしょ >>348
動作自体はmmdにすればいけるんじゃねえの
マネキンにつけるテクスチャはaiに任せるっていう実験聞いたことある >>351
mmdは古臭いし界隈は北センチネル島だし他使え
vroidとかfbxとか色々あるだろ 3090はVRAM熱々、3090tiはほとんど売ってないので4090一択なんだよな だから飽きずに続ける気あるなら何も考えず黙って4090買っとけって 小さく出して使えそうな奴だけアップスケールするからそこまでネックにならないよ
4090でもやることは同じ >>152
Pytorchがデファクトスタンダードだから今更無理だろ
Radeonに合わせる意味がない >>359
シード値固定したり生成イラストからコピーする手法がもうある こんだけ価格が高騰してりゃVRAMのコストなんて誤差の範囲やろ。
なんで搭載量をケチってんだnvidiaは。 PytorchはRocmもDirectMLでも動くから好きにしろ novelaiみたいなAIサイトの月額プランに課金する
↓
PCやスマホのブラウザから呪文を打ち込む
↓
イラスト生成
って流れだろ?なんでVRAMが必要なんだ?
演算や抽出してくれるのはAIサイトの側じゃん >>363
みんなローカルで出力したいんだよ
クラウドであれな画像はフィルターがかかってて出力されない hiresは顔変わりすぎる
元の画像の方が好みなのに ほー、なら自分の1080Ti 12GBはまだ現役でいけるかな >>363
自分で何も調べないのがデフォはアカンよなぁ >>363
そういうwebサービスとローカル環境じゃ使える機能が全然違うからな
あれで満足できるならNovelaiを使ってればいいと思うよ
結局年間3万かかるけど オンボのグラフィックメモリに大量に割り当てればいいんじゃないの 3090持ってるから4090は見送るわ
VRAM24Gで省電力の新グラボ出たら買い換えるかも 3060と3070で悩むは
せめて3060tiで12gb出してほしい https://i.imgur.com/tcPA5vQ.jpg
メモリ容量関係なくこの表の順番で良いと思うよ
性能差と値段は等比例しないだろうから
その辺のバランス取るのは難しいけど AIイラストに関しては3060 >3060tiちゃうの? >>375
3060やっぱ性能的には微妙なんだな
12GBは学習にぎりぎり使えるってだけで生成だけなら8GBで十分か どーせ3年もしないで、32GBはないと駄目とかなって、
5年後で4TBとかなるよ スループットが足りないのは分かるが何で時間方向に引き伸ばして同じ結果を出力できないんだ VRAMの容量てけっこう長い間そんなに上がらなかったぞ
ゲームが上手く使ってくれないからね
今回こういう明確な用途ができたからVRAM特化のモデルなんかもこれから出るかも nvidiaは業務用のラインが売れなくなるから簡単には出さなそう
AMDはやるかも >>152
>>358
PyTorchはCPUでも動くけどクソ遅いから実質GPU必須なだけだぞ
Radeonでも変わらんぞ ■ このスレッドは過去ログ倉庫に格納されています