AI絵師になりたい。rtx 3060でいいよな? [571577938]
■ このスレッドは過去ログ倉庫に格納されています
>>82
3060でそんなに行かんだろ
4070tiでもワット制限かけないで280w以下なのに >>96
言語生成っていうか現状で既にそういう文章で生成できるよ
そんな文章っぽいプロンプトはかったるいだけだからみんな要素を箇条書きしてるだけで
それとも音声認識っていいたい?それは嬉しいと思わないな >>101
3090とか普通に100℃超えるしこれからの時期キツイだろ
ヒエヒエでアスカベンチで3090超える4070Tiにすべき
メモリはまぁLoRAは8GBの2070Sでも出来てたしな12GBあれば問題ない AIでロリ描かせてるやつ外人に見つかるとヤバイだろ グラボあっても呪文使えないと意味無いのでは
もう難しい呪文使わなくても作れるようになったのか? >>108
今はゴテゴテ書く奴は馬鹿という風潮になってる 70ti買うつもりだけどloraとかいうので学習いける? 単に下絵を生成して欲しいんよね
解像度的には1000*1000も有れば十分
てか、最低限動く最低ラインのグラボってどれくらいです?
750tiはアウトです? シコるためだけにグラボに金かけすぎない方が良いが普通にゲームとかでも使えるからな >>112
最低で言うと、時間さえかければCPUで動かしてグラボ不要じゃないかな >>109
モデル配布者はそう言うけど 実際はどうなんたろうな?
(ネガティブの方はシンプルにしてるけど)欲しい絵を煮詰めてくとどうしても長くした方がいい結果になるんだよね 信じれんか?
ちょっと前まてaieに文句だらけばっかだったんだぜこいつらwww?? >>115
ありがとう
導入だけしてとにかく触ってみますよ 俺は3060だけど1枚作るのに4分ぐらいかかってるのかな
じゃんたま1試合やってる間に動かしてあとで整理してる >>116
自分はi2i派なので、
ザックリ全体書いた後で詳細はinpaintingで個別にしていく方が確実で早いと思います >>116
ほとんどのプロンプトこんな感じだから長さとクオリティ関係ないと思う
soft lighting, focus hip, 1girl miyu, school uniform, skirt, white pantyhose, lying on the bed, bedroom,
chubby, thigh gap, wide hip, looking back, looking at viewer, confused,
これにイージーネガティブとLORA足すだけ 作るのは楽しいけど1日に400枚くらい作るから
整理の時間が苦痛 >>102
いや、フルパワーで使うと結構いくぞ
AIとかで使うとフルで回るから電気すげえ食う >>123
>>124
人によってやり方が違って面白いね
自分は既存のキャラを再現しつつシチュにも凝りたいから長くなる
早くLoRAにも手を付けたいぜ >>121
やっぱそうだよな、LORA画像生成用で試しに使ってみようかな >>104
現状画像の修正って人力じゃん
手を直したかったらそこをinpaintで塗り潰してガチャだろ
そこを対話で一発修正できたらってことよ ネットワークを展開するためのメモリが重要、少ないと何週間もかかるはず https://github.com/SLAPaper/a1111-sd-webui-tome
背景にこだわりが無い人はこのエクステンション入れたらちょっとだけ速くなるよ
副作用で背景が雑になる >>99
絶対にGoogleフォトには上げないこと
ドライブは絶対に一部でも共有しないこと 4070tiが断然お得
4090と比較すると電気代月4万は安いし十分早い
月5万電気代かけてもいい人なら4090、それ以外は4070ti もうおせーよ
去年の夏から話題なのになんでその時動き出さなかったのか 1000W x 24時間 x 30日で2万円切るのに ファンタジックな景色とかエロじゃない絵を作りたいんだけどそういうのはノーパソでも普通にできるの? >>143
ノーパソでもGPU積んでるやつあるし、クラウド借りる手段もあるし
なんしか出来る
エロじゃないのはプロンプトで指定すればいいだけ。服の指定をガッツリすればガッツリ着込む 4080が20万ぐらいで買えるようになったら
PC買い換えるか >>144
ありがとう
自作ゲームの背景とかちょっとしたキャラ絵とかがほしいんだ
いい時代になったもんだ 4060の12Gモデル出るだろうしそれまで待てば?
恐らく3070位の性能あるぞ rtx3090は性能の割に安いけどマイニング落ちと元の品質の悪さと爆熱とワッパの悪さがあるみたいだな
売りに出されてるの見たら本格水冷とか追加でヒートシンクとファン付けてるのとかよく見かける >>105
4070tiはvrchatには向いてないらしいな 13700 4070tiでbto28万したけど満足
人には見せれないの作り放題でこれは安い >>47
電気代気にする貧モメンばっかだからこれ気にした方いいぞ
3倍時間かかるってことは電気代3倍かかるってことだからな
少し無理しても4070とか4070ti買えよすぐ終わるから電気代かからん >>149
VRChatってまだやってんの?お砂糖とか言いだしてキショイなぁと思った ただ一週間で飽きる壁が来るからそこ乗り越えて作り続ける根性が無いと金の無駄で終わる >>64
4070tiで何故か生成速度が3060くらいに遅くなる不具合があって
その原因ハッキリしてないけど俺見た限りでは全員amdのcpuだった
ゲームだけするならコスパ最強amdなのは揺らがないけど色々するならIntelとゲフォにしとくのが無難だよ >>152
確かにお砂糖とかいうのはキショいが、vrで元気なコンテンツがあれしかないんや rtx3090って実際追加のファンとヒートシンクで冷やしきれる? >>80
オフラインで自分の性癖叶えるために何でもできるってのがAI絵いいところなのに
肝心なところをネット依存は嫌
それにGoogle垢BANされたら死ぬし 去年の秋に3060買ったけど4070欲しい
コスパ的に >>159
4070tiだけど
このサイズなら1,5秒https://i.imgur.com/zSmSW4W.png
このサイズなら6秒くらいhttps://i.imgur.com/ceLkIvW.png
適当にやっても破綻が起きない(手足5個になったり指がおかしいってアレね)サイズが512×768だけどそれを2倍に拡大したサイズが下だね
電力消費はメーカーのソフトウェア見ると生成中は80%消費で200Wくらいでps5と同じくらいかな
3060と迷ったんだけど電気代やべーことになるからちょっと奮発して4070tiにしといた 好きなタレントのえっちな画像とか作れちゃうんでしょ? >>166
詳細ありがとう
生成時間短いね
奮発した方がよさそうだ まあRTX4090に30万円ぶっ込んで
自分のやりたいことが全くできない・・・なんてこともあるから
入門用として5万円のRTX3060(12GB)はアリだけどな >>167
ほんとあれだめだよな抜いたあと毎回後悔するわ >>10
5000シリーズは4000シリーズの2~2.6倍の性能だぞ
4000台買う奴は全員バカですwww >>169
今買うなら40xxの方が絶対にいいよ
同じワット数で30xxの2,5倍くらいのスピードで終わるから時短になるし電気代の節約になるし
>>172
vram盛ってくれるならすぐ買い替えるから性能が上がっていってほしいわ 今この時点で開発ストップしてAI全面禁止になってもいいや
loraで好きな作家の絵作れるようになったし実写も作れるようになったし
自分で好きなものを好きなようにネット使わないで作れるシステムが何十万かで作れるなんて夢みたいな話 RTX4070の24GB版が出たらすぐにでも買うんだが・・・ 有名漫画家、「AIを使ってイラストを「描いてる」ってのはちょっと違うよなー。「出力してる」とかになるんじゃないのかな。」
とつぶやいて叩かれる
https://twitter.com/pentarouX/status/1648250436321959937
https://twitter.com/5chan_nel (5ch newer account) novelaiリークモデル使ってるのって今は少数派なの? AI絵のガチャ回してる時ってやっぱグラボというかメモリ辺り?熱くなんの?
あと何%くらいグラボのリソース使う? ガチでやる時は後ろで動かしてるYouTubeの再生もまともにできない youtubeはgpu使うからね
ネットフリックスがいいよgpu使わないから >>179
LoRA学習中ヒエヒエよ、生成中はCUDA使用率は90%超えて70℃位かな
https://i.imgur.com/vqmDuhS.png 俺も4070tiだけど63度前後
生成中でもyoutube普通に見れるし重いと思ったことないな
グラボメーカーのソフトで電力制限してるからかな i7の9700とかいうやつなんだけど
3060ti乗せても無駄にならん? 機械学習に向いてるグラボってあるの?ChatGPTのファインチューニングしたいんだけど >>178
アニメ系モデルは大体nai派生だから
むしろ殆どの奴がリークモデルに手を染めてるとも言える
配布されてるvaeなんかリーク品リネームしただけだし >>186
言語モデルはGPUメモリの大きさが勝負だぞ
LLaMaの7Bモデル+LoRA(現状最もメモリを食わない構成)でも9GBは必要らしい
https://github.com/tloen/alpaca-lora AI用ならRTX A4000がいいらしいんだが
使ったことがないんで何とも言えん >>187
> 配布されてるvaeなんかリーク品リネームしただけだし
これって周知の事実なのかな
自分もたまたまハッシュの確認してて 有名なモデルのvaeがNAIの奴と同じな事に気づいたんだが >>188
9GBが最低ラインか・・・3090が24だからこっちの方が向いてそうかな?情報さんくす 4か月くらいAI触れてないだけでもはや何言ってるのか半分くらいしかわからんな
渋にエロAI絵のっけてフォロワーくそほど増やすだけなら俺でも簡単にできたが継続的に業界のメインストリームについていくのが大変すぎるんだわ
金稼ぎ目的でもなければ途中で疲れちまうよ i2iでアップスケールするのが主流だから学習しないならそんな高性能なのいらん(´・ω・`) >>187
なるほど、色々味付けされてるけど、まだ健在なんだな AIイラストはある意味ガチャだから短時間で何枚も出来る4000番台がいいぞ ■ このスレッドは過去ログ倉庫に格納されています