AI絵師になりたい。rtx 3060でいいよな? [571577938]
■ このスレッドは過去ログ倉庫に格納されています
4090は高いし
電源はちゃんと選べよ
あと空冷とか水冷システム RTX4000シリーズで4090以外を買う人、全員バカです(笑) AI画像作りたくてミドルスペックPC買う人、全員バカです(笑) Loraとか使わない限りNovelAIでいいぞ
電気代とかも含めると絶対そっちの方が安くて手軽 ずんだもんの為にpc買い替えて
何となくstable diffusionやり始めたら3060tiでも足りんと感じた
性癖の生む力をあなどるな VRAM少なくてもなんとかなる機能は追加されてるけどな XX60シリーズなんて2~3万だったのに今じゃ5万だからなぁ・・・ GTX1080からRTX4070Tiに換えたけど結構煩いぞ
GTX1080はEVGA製でRTX4070Tiは玄人志向(GALAX)っていうのもあるかもしれないが >>12
loraやるなら12GBじゃ不自由感じるんだよな
せめて4090欲しいところ ツイッターのタイムラインに良い絵が上がってきてもそれが人間なのかAIなのか判断できないやつがいて困る >>37
うん
しかもやってない奴まで寄ってきて「絵師ざまあああああwwwww」とか謎の勝利宣言しているという >>31
凝っていく方向性がいろいろあって
出てきた絵を自分で書き加えてinpaitingで清書ってやるのが凄い楽しい
モデルをマージ/生成しまくってる人は調合士っぽいし
自分で絵を描ける人はラフ画を清書したりしてるみたい >>18
ちょっと分かる
たまにめちゃくちゃ固く刺さってるときあるな 用途が限定的だから1660Sでなんとかなってる
まあ正直近いうちに3060にしようとは思ってる 電気代考慮するとガチでクラウド課金でええで
どうせすぐ飽きるだろうし 1年くらい前までマイニングしてた3060が8枚あるんだけど高く売れるんか? 4070と3060だとSDのベンチ結果3倍弱差がある
3分の出力が1分 3時間の学習が1時間
長く使えば使うほど影響が大きい 安いグラボでも時間かかってもちゃんと完走できれば良いけど
止まる事もあるからな 3060は一通り出来るってだけで処理が激遅だからなあ >>23
8GBのグラボでもできるようにしてくれたがメモリは有る方が色々ストレスが少ないと思う
ただ、これからAIが過熱すればもっとコスパいいのが出るかもしれない >>46
マイニング済みだとメルカリで3万弱が相場じゃね
マイニング無しとか嘘つくならVRAMの黄変とかごまかさなきゃならんぞ RTX6000adaじゃないとダメ
CPUはthread Ripper Pro5000シリーズね >>53
3060ならグラボ単品100Wぐらいまで絞れるから 3060とかアスカベンチ40秒台の遅いGPUに拘るのは止めてアップデートしろ
コスパいいのはヒエヒエで省エネでアスカベンチ18秒台出るのが4070Ti
4070は一部製品でヒートシンクに不具合があってVRMが100℃超えるらしいからパスした方がいい >>49
xformersオプション使えば1000x1000以下とかは問題無く作れる
それくらいは余裕 2080使ってるけど新しいグラボ欲しくなってきたわ
VRAM8GBは少ねえ この認識でええんか
intelとRyzenの戦争は結論出てるの
RTX4090 最強
RTX4080 つよつよ
RTX4070 40シリーズの末弟
RTX3090 RAM24GBでつよつよのつよ
RTX3060 12GBならエントリーモデル pc性能はいつの時代も上を目指すときりがないからなずっと何十万払い続けることになる
他のいい性能持ってる人の輪に入るとどうしても最高品質じゃないと物足りなくなる
まあ財布と相談してガンバレ ゲームしないならgoogle colabでいいだろ 12GBだと不足することがあるっていうけど4080の16GBってどうなの?
この4GBで何が解消されるのかしらんけど 4000は3000からしょぼあっぷだったけど
5000は凄いらしいからそれまで待つ >>64
そっちで探してみるわ
はやいとこ円高になーれ 3060で組み立てたけど
blenderで映像作るの楽しすぎてハマった >>65
新しいAIが開発されてすぐ触ろうとすると大抵16GB要求されるというジンクスみたいなものはある
ただVRAM多めのグラボのボリュームゾーンは12GBなので待ってればいずれ降りてくる 2年間世話になった3080と別れる時が来たようだ
来週には4090さんが届くぜ >>55
そんなもんなのか
元は十分取ってるからいいけど
そもそも8枚出品しといてマイニングしてませんは通用しないだろうしマイニングしてましたで売る気ではいた 4000シリーズとかいうコスパが悪くなっただけのクソシリーズ CPUがSundayでもRTX3060 12GならAI画像生成できるの? >>74
シングル性能があんまり低いと影響すると聞いたぞ ガチでやるならMac miniを大量に並べるのが一番いいぞ。
PC1台でちょっと試す程度なら3060でいい。 GoogleColabでいいだろ次々1000円ほど払えば割と一日中使ってても問題ないぞ 3060でも170wある
これをアフターバーナーで80%制限とかにしても
AIでガンガンに回すと平気で250wとか行くから
電気代がきついんよな
A200012Gという75wのやつを付けたけど
これも結局AIとかやると120wくらいまで上がった >>63
colabは下手にギップリャして環境おかしくなっても簡単に壊せるのがいいわね 4090ってパワーリミットした方がいいのかな
すぐ500wとかいくから電気代が怖い >>82
850mV 1850MHzで114Wやで
性能落とさず絞れる 電気代5万越えてたわ
サブスクので出したほうが安いかもしれん 玄人志向のやつで十分や
画風LoRA作りまくって飽きた
次の技術が来るまでゲームする NVIDIA GeForce RTX 4080を値下げ予定。RTX 4080含めRTX 4090やRTX 4070 Tiは減産
って記事があるね 24時間ぶん回すならMac miniを大量に並べとけ。
電気代が圧倒的に安い。 次のブレイクスルーは言語生成型AIとの連携だろうね
「指おかしいから直して」とか「服装ドレスに変えて」とか「もうちょっと豪華な感じにして」とか自然言語で修整できるようになったらもう並の人間では太刀打ちできん
現状一部分の修正は弱いからな >>11
意味が分からん
なんとか抜け道商売法見つけるとか
ワナビ絵師様()の同様に画像アップして承認欲求満たしたいとかでなきゃ
自家でシコシコするだけなら導入としては十分だろうに いつまでメモリ信仰してんの
大事なのは速さだぞ
自分の予算で買えるもの買え >>80
colabってエロ絵大丈夫なん?ドライブ保存ってきいてエロ絵は危なそうだなって感じでずっと自分のPCでやってるんだが >>88
クラウド関係はイマイチ信用が・・・
【悲報】Google春のBAN祭り…15年以上の記録や想い出が一瞬で吹っ飛んだ!実体験記録を赤裸々に書いてみる
https://hitoxu.com/027396 >>82
3060でそんなに行かんだろ
4070tiでもワット制限かけないで280w以下なのに >>96
言語生成っていうか現状で既にそういう文章で生成できるよ
そんな文章っぽいプロンプトはかったるいだけだからみんな要素を箇条書きしてるだけで
それとも音声認識っていいたい?それは嬉しいと思わないな >>101
3090とか普通に100℃超えるしこれからの時期キツイだろ
ヒエヒエでアスカベンチで3090超える4070Tiにすべき
メモリはまぁLoRAは8GBの2070Sでも出来てたしな12GBあれば問題ない AIでロリ描かせてるやつ外人に見つかるとヤバイだろ グラボあっても呪文使えないと意味無いのでは
もう難しい呪文使わなくても作れるようになったのか? >>108
今はゴテゴテ書く奴は馬鹿という風潮になってる 70ti買うつもりだけどloraとかいうので学習いける? 単に下絵を生成して欲しいんよね
解像度的には1000*1000も有れば十分
てか、最低限動く最低ラインのグラボってどれくらいです?
750tiはアウトです? シコるためだけにグラボに金かけすぎない方が良いが普通にゲームとかでも使えるからな >>112
最低で言うと、時間さえかければCPUで動かしてグラボ不要じゃないかな >>109
モデル配布者はそう言うけど 実際はどうなんたろうな?
(ネガティブの方はシンプルにしてるけど)欲しい絵を煮詰めてくとどうしても長くした方がいい結果になるんだよね 信じれんか?
ちょっと前まてaieに文句だらけばっかだったんだぜこいつらwww?? >>115
ありがとう
導入だけしてとにかく触ってみますよ 俺は3060だけど1枚作るのに4分ぐらいかかってるのかな
じゃんたま1試合やってる間に動かしてあとで整理してる >>116
自分はi2i派なので、
ザックリ全体書いた後で詳細はinpaintingで個別にしていく方が確実で早いと思います >>116
ほとんどのプロンプトこんな感じだから長さとクオリティ関係ないと思う
soft lighting, focus hip, 1girl miyu, school uniform, skirt, white pantyhose, lying on the bed, bedroom,
chubby, thigh gap, wide hip, looking back, looking at viewer, confused,
これにイージーネガティブとLORA足すだけ 作るのは楽しいけど1日に400枚くらい作るから
整理の時間が苦痛 >>102
いや、フルパワーで使うと結構いくぞ
AIとかで使うとフルで回るから電気すげえ食う >>123
>>124
人によってやり方が違って面白いね
自分は既存のキャラを再現しつつシチュにも凝りたいから長くなる
早くLoRAにも手を付けたいぜ >>121
やっぱそうだよな、LORA画像生成用で試しに使ってみようかな >>104
現状画像の修正って人力じゃん
手を直したかったらそこをinpaintで塗り潰してガチャだろ
そこを対話で一発修正できたらってことよ ネットワークを展開するためのメモリが重要、少ないと何週間もかかるはず https://github.com/SLAPaper/a1111-sd-webui-tome
背景にこだわりが無い人はこのエクステンション入れたらちょっとだけ速くなるよ
副作用で背景が雑になる >>99
絶対にGoogleフォトには上げないこと
ドライブは絶対に一部でも共有しないこと 4070tiが断然お得
4090と比較すると電気代月4万は安いし十分早い
月5万電気代かけてもいい人なら4090、それ以外は4070ti もうおせーよ
去年の夏から話題なのになんでその時動き出さなかったのか 1000W x 24時間 x 30日で2万円切るのに ファンタジックな景色とかエロじゃない絵を作りたいんだけどそういうのはノーパソでも普通にできるの? >>143
ノーパソでもGPU積んでるやつあるし、クラウド借りる手段もあるし
なんしか出来る
エロじゃないのはプロンプトで指定すればいいだけ。服の指定をガッツリすればガッツリ着込む 4080が20万ぐらいで買えるようになったら
PC買い換えるか >>144
ありがとう
自作ゲームの背景とかちょっとしたキャラ絵とかがほしいんだ
いい時代になったもんだ 4060の12Gモデル出るだろうしそれまで待てば?
恐らく3070位の性能あるぞ rtx3090は性能の割に安いけどマイニング落ちと元の品質の悪さと爆熱とワッパの悪さがあるみたいだな
売りに出されてるの見たら本格水冷とか追加でヒートシンクとファン付けてるのとかよく見かける >>105
4070tiはvrchatには向いてないらしいな 13700 4070tiでbto28万したけど満足
人には見せれないの作り放題でこれは安い >>47
電気代気にする貧モメンばっかだからこれ気にした方いいぞ
3倍時間かかるってことは電気代3倍かかるってことだからな
少し無理しても4070とか4070ti買えよすぐ終わるから電気代かからん >>149
VRChatってまだやってんの?お砂糖とか言いだしてキショイなぁと思った ただ一週間で飽きる壁が来るからそこ乗り越えて作り続ける根性が無いと金の無駄で終わる >>64
4070tiで何故か生成速度が3060くらいに遅くなる不具合があって
その原因ハッキリしてないけど俺見た限りでは全員amdのcpuだった
ゲームだけするならコスパ最強amdなのは揺らがないけど色々するならIntelとゲフォにしとくのが無難だよ >>152
確かにお砂糖とかいうのはキショいが、vrで元気なコンテンツがあれしかないんや rtx3090って実際追加のファンとヒートシンクで冷やしきれる? >>80
オフラインで自分の性癖叶えるために何でもできるってのがAI絵いいところなのに
肝心なところをネット依存は嫌
それにGoogle垢BANされたら死ぬし 去年の秋に3060買ったけど4070欲しい
コスパ的に >>159
4070tiだけど
このサイズなら1,5秒https://i.imgur.com/zSmSW4W.png
このサイズなら6秒くらいhttps://i.imgur.com/ceLkIvW.png
適当にやっても破綻が起きない(手足5個になったり指がおかしいってアレね)サイズが512×768だけどそれを2倍に拡大したサイズが下だね
電力消費はメーカーのソフトウェア見ると生成中は80%消費で200Wくらいでps5と同じくらいかな
3060と迷ったんだけど電気代やべーことになるからちょっと奮発して4070tiにしといた 好きなタレントのえっちな画像とか作れちゃうんでしょ? >>166
詳細ありがとう
生成時間短いね
奮発した方がよさそうだ まあRTX4090に30万円ぶっ込んで
自分のやりたいことが全くできない・・・なんてこともあるから
入門用として5万円のRTX3060(12GB)はアリだけどな >>167
ほんとあれだめだよな抜いたあと毎回後悔するわ >>10
5000シリーズは4000シリーズの2~2.6倍の性能だぞ
4000台買う奴は全員バカですwww >>169
今買うなら40xxの方が絶対にいいよ
同じワット数で30xxの2,5倍くらいのスピードで終わるから時短になるし電気代の節約になるし
>>172
vram盛ってくれるならすぐ買い替えるから性能が上がっていってほしいわ 今この時点で開発ストップしてAI全面禁止になってもいいや
loraで好きな作家の絵作れるようになったし実写も作れるようになったし
自分で好きなものを好きなようにネット使わないで作れるシステムが何十万かで作れるなんて夢みたいな話 RTX4070の24GB版が出たらすぐにでも買うんだが・・・ 有名漫画家、「AIを使ってイラストを「描いてる」ってのはちょっと違うよなー。「出力してる」とかになるんじゃないのかな。」
とつぶやいて叩かれる
https://twitter.com/pentarouX/status/1648250436321959937
https://twitter.com/5chan_nel (5ch newer account) novelaiリークモデル使ってるのって今は少数派なの? AI絵のガチャ回してる時ってやっぱグラボというかメモリ辺り?熱くなんの?
あと何%くらいグラボのリソース使う? ガチでやる時は後ろで動かしてるYouTubeの再生もまともにできない youtubeはgpu使うからね
ネットフリックスがいいよgpu使わないから >>179
LoRA学習中ヒエヒエよ、生成中はCUDA使用率は90%超えて70℃位かな
https://i.imgur.com/vqmDuhS.png 俺も4070tiだけど63度前後
生成中でもyoutube普通に見れるし重いと思ったことないな
グラボメーカーのソフトで電力制限してるからかな i7の9700とかいうやつなんだけど
3060ti乗せても無駄にならん? 機械学習に向いてるグラボってあるの?ChatGPTのファインチューニングしたいんだけど >>178
アニメ系モデルは大体nai派生だから
むしろ殆どの奴がリークモデルに手を染めてるとも言える
配布されてるvaeなんかリーク品リネームしただけだし >>186
言語モデルはGPUメモリの大きさが勝負だぞ
LLaMaの7Bモデル+LoRA(現状最もメモリを食わない構成)でも9GBは必要らしい
https://github.com/tloen/alpaca-lora AI用ならRTX A4000がいいらしいんだが
使ったことがないんで何とも言えん >>187
> 配布されてるvaeなんかリーク品リネームしただけだし
これって周知の事実なのかな
自分もたまたまハッシュの確認してて 有名なモデルのvaeがNAIの奴と同じな事に気づいたんだが >>188
9GBが最低ラインか・・・3090が24だからこっちの方が向いてそうかな?情報さんくす 4か月くらいAI触れてないだけでもはや何言ってるのか半分くらいしかわからんな
渋にエロAI絵のっけてフォロワーくそほど増やすだけなら俺でも簡単にできたが継続的に業界のメインストリームについていくのが大変すぎるんだわ
金稼ぎ目的でもなければ途中で疲れちまうよ i2iでアップスケールするのが主流だから学習しないならそんな高性能なのいらん(´・ω・`) >>187
なるほど、色々味付けされてるけど、まだ健在なんだな AIイラストはある意味ガチャだから短時間で何枚も出来る4000番台がいいぞ 9GBが最低ラインとしたら実質12GBがいい
すなわちRTX4070が最低ライン グラボばっか語られるけどcpuどうなん?
ケチっても大丈夫? CPUはケチってもいいけどマザーボードは古いとPCIE3.0の可能性あるから本来の性能出せない 余ってる5600Gでと思ったけどやっぱ5600Xの方がいいか GeForce RTX 4090ではPCIe Gen 4 x8相当
って話だから、PCIE3.0 x16でもほぼ変わらんはず
RTX5090あたりでPCIE4.0が必須になるかな colabって起動すると毎回いろんなことからデータやプログラムをダウンロードするじゃん
どれか一つでもバージョンが変わったりダウンロードに失敗すると動かなくなる
原因を調べて修正してまた動くようになるまで数日潰れる
これが毎月数回あってストレスで胃に穴が開きそうだわ
ビギナーはcolabはやめとけ 今学習中で試せないけど、ただ女体化させようとせずにtrans maleとか入れれば
合わせてくれるのかな AI絵師でも必要なのは美術に対する理解だろうな
東京芸大の学生の方がAIを使いこなせるはず 絵を描いてるの自体はaiだから
絵師自体はpcで指示を与える人は原案やプロデューサー、又はディレクターよね
ai絵師という言葉には違和感がある >>195
大規模モデルでそこそこの精度出したいな最低でもA6000ないと学習できない
世界基準ではA100が一般的でこれ一枚を最低ラインにしてるモデルが多い 導入環境として最低ラインなのが分かっていればそれでいいよ colabで試用して重い生成は結構待つなとか知っといた方が高スペ欲しくなるし購入の姿勢が変わると思う
そういう自分は低いラインの3060をわざわざ買うのもな~ってチャンスを見てる 3090の中古9万で仕入れて白色申告でもしたらええんちゃうか >>214
そんなの無駄だよ
廉価モデルで出した絵にちょっと加筆するほうが良くなる🥺 >>218
画像出すんじゃなくてChatGPTのファインチューニングしたいって言ってるんだぞ >>219
chatGPTなんて論文でアルゴリズムがわかる程度で
コードもモデルも公開されてないんだから出来なくね? >>223
元マイナーで色々使ったが熱は3080と変わらん
どうせパワーリミットかけて使うだろうし
ハズレ品とかパリットとかゲインワードの糞モデルならサーマル張替必需ってだけ >>212
これは思う
pixivでAI絵追ってるけど
ハンコAI絵みたいな奴は2ヶ月ぐらいで更新止まる
作家性みたいなのが出てきてるやつはどんどん上手くなって続いてるわ とりま70tiとかいうのでいくわ
A100はGCPでインスタンス立てられるから学習で足りなくなったらそっち使えそうだし グラボなんて金の無駄だろ
paperspaceとかcolab使えばいい 3060tiのクソ雑魚グラボだけどまあまあ出来るよ 昨日ローカル環境構築したけどドチャクソ簡単に構築できてびっくりした >>228
エロでBAN~w!股間もBURN~w! nttxでasusタフゲ4090買うとIntel ARC A750Gfx貰えるとかやってるw https://www.youtube.com/watch?app=desktop&v=14jzlR4yGCQ
この動画と同じ方法で3090をVRAM48GBにする猛者って居ないの?
4000番台は全部片面実装になってるからGDDR6Xで32Gb(4GB)のチップが出てこないと同じ事出来ないんだよな VRAMあげても出来ることたかがしれてるんだから
やる意味がない >>227
4070tiだけどフルHDの画像出力するのにVRAMが足りない
720pなら1枚20秒くらいでいけるけど
皆が4090勧める理由がわかったわ… civitaiで好みのキャラと構図lora毎日チェックしてai画像投稿サイトの呪文丸パクリしてあとは試行錯誤。ガチャったり邪魔してる呪文削ったり逆に足したり。
たまにcheckpointも切り替える
版権キャラはこれで大体事足りる。LORAないキャラや創造性求めるならもっとやることあるけどな >>237
やり始めは版権イラストを改造したり版権キャラエロくしたりが凄いと思ったけど
やってるうちに版権キャラってそこまで魅力無い事に気付いて
txt2imgで出てくる中からチンコに来るやつをベースにするように変わったわ ワロチ、colab死亡webuiが禁止されるwwwwwwwwwwwwwwwww
390今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ a788-sFbk)2023/04/21(金) 08:49:59.70ID:aqsKKklp0>>392>>401
!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui /content/stable-diffusion-webui
これ許可されていないコードらしいわ
終わったわワイのAI人生
じゃあの
おまえらGPU争奪戦が始まるぞ急げ 4000の速度アップきたからワッパ的にも3000は無いぞ ダイヤルアップ接続時代に1枚のエロ画像開くのにすげー時間かかった時代みたいな遊びしてるな 1時間くらいで飽きるからたまにcolabで遊ぶくらいがちょうどいいんだけどな
制限されたか 至高の画像を出力するために試行錯誤してたらいつの間にか時間が過ぎてるからそこらへんのゲームよりタチ悪い
学生時代に友人とオンラインゲームをぶっ通しやってたときを思い出す >>244
なんUのAIスレ見たけどそのレスはなかった >>241 >>247
AIじゃなくてNVA部やで 生成はじめて2日やが、10か月ぐらい前の水準のAI絵しか出来てない
ちな3060 >>250
AI絵師間の技術格差って結構あるよな🥺 >>250
俺もそんくらいだけどメスガキのエロ画像ばっか
絵柄も量産型で似たりよったり
しかも自分で作った画像は思ったより抜けなかったし ■ このスレッドは過去ログ倉庫に格納されています