githubで公開されている音声自動生成AI、日本のアニメキャラ2890名分の音声を学習素材に超速度で進化中★4 [386780362]
■ このスレッドは過去ログ倉庫に格納されています
今日までのケ 晟鉉の動き
件のMoegoe開発者グループに潜入成功
本当に1000人規模で開発していて草なんだ
そのうち取材を申し込む予定
https://i.imgur.com/rXwimv9.jpg
https://i.imgur.com/SxK8eWL.jpg
↓
テンセントQQのMoeGoe開発者グループの鯖管とフレンド登録完了、プロフは新古今和歌集か?
https://i.imgur.com/UjcIov2.jpeg
https://i.imgur.com/ZQKvY5Z.jpeg
↓
とりあえずインタビューしてみた
https://i.imgur.com/JTxzwnU.png
嗨 大佬们 我又来了八
我想要釆访你们
是关于人工知能开发事情的
第一
AI模型训练时使用的数据资源是什么?
第二
这数据资源你们怎么获得?
哪里购买? 或者 做制作的谁?
第三
你们今后的到达目标 是什么?
嫌儲ディスコってどこで招待されてるのん
>>19
こことディスコ
あと消されたモデルデータ集の再配布をディスコでやってます
入る前にかならず規約の全文に目を通してね
https://disboard.org/ja/server/313289774440120332
嗨 大佬们
我是在日本的b站博主 ケ 晟鉉
我是日本最大的网站"5CH"记者的
我想要问您一件事,可以吗?
Q,日本网友说
"想要收费变声器Voidol软件为追加的vits萌声学习数据也很好"
这个,可能吗?
↓の回答
https://i.imgur.com/pDkrafe.png
音声関係ないけど
NovelAIの強化版が来た
NovelAI 再遭泄露?实测对比Anything-V3.0.ckpt 提升巨大
https://www.bilibili.com/read/cv19603218 >>21
えぇ…
嫌儲が主導とかもう終わりだよこのテクノロジー エヴァンジェリンAKマクダウェルちゃんのモデルまだ?
嫌儲ディスコにはいれた! >>35
嫌儲はイナゴするだけで主導には向かないだろ
他の板に引っ越せ >>32
それrecaptchやらないとすぐ追い出されたわ
気付かずに何度も入りなおしてた
まぁワシも知り合いの華僑経由で情報貰っただけだけどね
中国語圏でバズり散らかしたあとでようやく日本で騒がれ出した感じ
だいたい2ヶ月遅れぐらい
前スレより
CjangCjengh氏に色々取材しようと思って腾讯群聊(テンセントQQのグループチャト)のMOEGOE開発グループ覗いてみたが、満員(全508人、内モデレータ8人)で入れませんでした
メンバーのプロフィール見たら清華大学学生とか普通に居て草なんだ
あと第2鯖も埋まってて第3鯖が出来ていたので、最低でも1000人以上いる
Cjang Cjengh氏自身も機械工学系の上海交大出身、エリート集団が正に"人海戦術"で開発してる
2022年7月から開発開始
https://i.imgur.com/vVGD4Pt.jpg
https://i.imgur.com/djqeaAV.jpg
https://i.imgur.com/LazZpbq.jpg
moegoe開発者グループ
纸片人魔法交流群 - QQ群聊
第1群·702724269(満員)
第2群·768432324(加入時にモデレータによる審査あり)
第3群·546637589(加入時にモデレータによる審査あり)
開発鯖の管理人がなぜかケ 晟鉉のことを知っていたので、態々第2鯖に空きを作ってもらって入ってる感じ MoeGoe3.1来たみたいだけどあんま変化ないなら改良版から離れたくない 見てないけど現実の声優と二次元とがきちんと切り離せるのはいいな
「如果(模型训练数据集)是动画的话,目前常见的方法就是使用另一个网路提取」 ディスコードお礼しか書いてないけどキックされたぞ
なんでや( •᷄ὤ•᷅) GUIの変更オリジナルでも検索出来るようになっただけ?
更新履歴どっかにないのかしら >>54
ボットからrecaptchの認証しろとなんか来てるよ
そのリンククリックして認証しないと追い出されれる Voistock の config.json、最初の方の
"text_cleaners":["cjke_cleaners2"],
を
"text_cleaners":["japanese_cleaners2"],
に書き換えると[JA]要らなくなったけど
変更前の[JA]書いた場合と発音がちょっと違ったりでよくわからん
>>56
ありがとう
>>58
零基础炼丹秘籍 - 为自己喜爱的角色训练TTS(文字转语音)模型
TTS (text to speech) model for your favorite character
https://www.bilibili.com/read/mobile?id=17826415 これのおかげで捗りまくってるわ
下手な同人音声より良いわ
刺さるセリフを量産できるのはエグい あと1時間ぐらいしたらやってみるわ
スレ立ててんきゅー >>60
この作り方だけだとtacotron2だからMoeGoeでは使えないはず
作り方にそんな差はないが オーディオブックみたいにepub読ませられるようになったら教えて よくわからんがGUIで学習できるようになるようお祈りします 先日各所に通報しといたけどなんの音沙汰もないな
声優文化なんて守る価値もないってことか…
もう好き放題無法地帯で暴れまくってぶっ壊してくれ中国さん 法律違反はしてないからじゃねえかなあ
機械学習に音声使うなとか条項いちいち旧時代に作らねえもん
モデルファイルは私的利用のみにしろって注釈もあるし モデル作って配布は日本で違法じゃないしな
これ使ってエロゲ作ったらアウトにはなりそうだ
エロゲ量産されたら法規制とかありそう 散々威張り散らしてきた腐れカースト上位オタクどもが
ギャオりながら無産呼びしてる俺らに
権利振りかざしてんの見ると凄い脳汁出てくる
ウヨって普段こういう気持ちで左翼見てたんだろうな
とりあえずAI頑張れ! オタク一匹残らず失業させろw こんなのが文化盗用になるならジャップが西洋かぶれな生活してるのも文化盗用だろ 自分用のデータセット作りたいけどこれもCUDAが使えるGPUやないとあかんのやろ
colabはスマホないからgoogleアカウント作れないのや >>72
GPU使うようにするにはどうしたら良いのか教えてくれ
[JA]保守[JA]
[JA]保守[JA] 2800人超えモデルだとVITSでの音声合成がMoeGoeGUIだとできないのバグなのかな 5日くらい前にmodules.pyのDDSConvってクラスをタイプミスで修正してんだよね
そしてその修正は配布のMoeGoe.exeには含まれてない。何に使ってるクラスかよく見てないけどもしかするとそのせいかもね
自分でexe化しろってことかな 日本語アクセント補正に marine ってライブラリも使うようにしてみた
劇的には変わらず、語尾上がりが減ったかなって感じ
https://github.com/tasrr/WebApp_MoeGoe 韓国語だけじゃなくて、中国語も専ブラで打てないような機種依存文字が読めない
おま環かな >>92
ごめんねCPU
モデルデータ自体が書き出すときに cpu, gpu 両対応でやってない場合読み込めないとか
トラブルに対応できなそうであきらめた
後CUDA版torch を pyinstaller でまとめたら 4.8GB になったのもうーんって感じ
機会があったらCUDA版も作っときたいですね >>90
有り難く頂いて、問題なく使えました
ありがとう >>90
画像生成のエロスレでも見たわ
両方アプリ作ってるのか >>95
スレチだけど向こうは情報量が多すぎて数日で知らない単語が増えていく
AI関係はワクワクして楽しいんだけどね なんか片方しかキャラがいない版権があるのはどうして? W2V2-VITS使いたいんだけど情感参考ってところ何入れたらいいんだろう
model.onnxはセットしてるけどnpyなんてファイル見当たらない voicevoxみたいにアクセント調整できたら神アプリになりそうだが >>101
声優も韓国じゃないとだめなんじゃないかな
知らんけど >>102
Web版だと普通に読めるのにローカルGUIだと読めない >>103
試してないから適当なこと言うけど
GUIが日本語だから動かないんじゃね?
元のGUIなら動くとか?
https://github.com/CjangCjengh/MoeGoe_GUI
それともバージョンが上がって違いがあるとか?
まあ試さないとわからんね 同人コンテンツのボトルネックが声優だったから情勢がかなり変化しそうだな 軽く触ったけどイントネーションが外人すぎて簡単には使いこなせんわ 複数(2行)のセリフを含めて出力するのと
それぞれ分けて出力するとアクセントが全然違う 確かにあえて改行したり文頭に…を入れたりで結構変わるね
↓↑は効いたり効かなかったりでわからん アクセントとかあまり意識したことないからどっちかわからん時がある
でも効果は確実にある 生成するごとにイントネーション変わるから、たまにいいイントネーション引けることもあるぞ。 >>107
試したけど無理だわ
でも無理やり動かすことはできるぞ
webのmoettsから発音記号に変換して
発音記号をmoegoeに入力すると韓国語になったわ
日本語の発音が悪いのはここの変換でなんとかなるかもね
https://huggingface.co/spaces/skytnt/moe-tts
https://i.imgur.com/Ilnffmy.png イントネーションと感情値が弄れたらボイロとか余裕で越える プリコネの精度良いけど3人以外も無いのかな…動画はあるっぽいけど シンボリックの「N」とか「Q」とかのアルファベットとかどう使えと ipaって読み上げ出来る?
('A', 'ei˥'),
('B', 'biː˥'),
('C', 'siː˥'),
('D', 'tiː˥'),
('E', 'iː˥'),
('F', 'e˥fuː˨˩'),
('G', 'tsiː˥'),
('H', 'ɪk̚˥tsʰyː˨˩'),
('I', 'ɐi˥'),
('J', 'tsei˥'),
('K', 'kʰei˥'),
('L', 'e˥llou˨˩'),
('M', 'ɛːm˥'),
('N', 'ɛːn˥'),
('O', 'ou˥'),
('P', 'pʰiː˥'),
('Q', 'kʰiːu˥'),
('R', 'aː˥lou˨˩'),
('S', 'ɛː˥siː˨˩'),
('T', 'tʰiː˥'),
('U', 'juː˥'),
('V', 'wiː˥'),
('W', 'tʊk̚˥piː˥juː˥'),
('X', 'ɪk̚˥siː˨˩'),
('Y', 'waːi˥'),
('Z', 'iː˨sɛːt̚˥') google colabで学習したvitsモデルを自作で作って300回くらい回してみたがテキストで喋らせると謎の言葉でしかない
合成音声方式だとちゃんとキャラの声になってきてるんだけどなんか手順が足りてないのかなあ、クリーナーとかってのがよくわからない ■ このスレッドは過去ログ倉庫に格納されています