githubで公開されている音声自動生成AI、日本のアニメキャラ2890名分の音声を学習素材に超速度で進化中★4 [386780362]
■ このスレッドは過去ログ倉庫に格納されています
韓国語だけじゃなくて、中国語も専ブラで打てないような機種依存文字が読めない
おま環かな >>92
ごめんねCPU
モデルデータ自体が書き出すときに cpu, gpu 両対応でやってない場合読み込めないとか
トラブルに対応できなそうであきらめた
後CUDA版torch を pyinstaller でまとめたら 4.8GB になったのもうーんって感じ
機会があったらCUDA版も作っときたいですね >>90
有り難く頂いて、問題なく使えました
ありがとう >>90
画像生成のエロスレでも見たわ
両方アプリ作ってるのか >>95
スレチだけど向こうは情報量が多すぎて数日で知らない単語が増えていく
AI関係はワクワクして楽しいんだけどね なんか片方しかキャラがいない版権があるのはどうして? W2V2-VITS使いたいんだけど情感参考ってところ何入れたらいいんだろう
model.onnxはセットしてるけどnpyなんてファイル見当たらない voicevoxみたいにアクセント調整できたら神アプリになりそうだが >>101
声優も韓国じゃないとだめなんじゃないかな
知らんけど >>102
Web版だと普通に読めるのにローカルGUIだと読めない >>103
試してないから適当なこと言うけど
GUIが日本語だから動かないんじゃね?
元のGUIなら動くとか?
https://github.com/CjangCjengh/MoeGoe_GUI
それともバージョンが上がって違いがあるとか?
まあ試さないとわからんね 同人コンテンツのボトルネックが声優だったから情勢がかなり変化しそうだな 軽く触ったけどイントネーションが外人すぎて簡単には使いこなせんわ 複数(2行)のセリフを含めて出力するのと
それぞれ分けて出力するとアクセントが全然違う 確かにあえて改行したり文頭に…を入れたりで結構変わるね
↓↑は効いたり効かなかったりでわからん アクセントとかあまり意識したことないからどっちかわからん時がある
でも効果は確実にある 生成するごとにイントネーション変わるから、たまにいいイントネーション引けることもあるぞ。 >>107
試したけど無理だわ
でも無理やり動かすことはできるぞ
webのmoettsから発音記号に変換して
発音記号をmoegoeに入力すると韓国語になったわ
日本語の発音が悪いのはここの変換でなんとかなるかもね
https://huggingface.co/spaces/skytnt/moe-tts
https://i.imgur.com/Ilnffmy.png イントネーションと感情値が弄れたらボイロとか余裕で越える プリコネの精度良いけど3人以外も無いのかな…動画はあるっぽいけど シンボリックの「N」とか「Q」とかのアルファベットとかどう使えと ipaって読み上げ出来る?
('A', 'ei˥'),
('B', 'biː˥'),
('C', 'siː˥'),
('D', 'tiː˥'),
('E', 'iː˥'),
('F', 'e˥fuː˨˩'),
('G', 'tsiː˥'),
('H', 'ɪk̚˥tsʰyː˨˩'),
('I', 'ɐi˥'),
('J', 'tsei˥'),
('K', 'kʰei˥'),
('L', 'e˥llou˨˩'),
('M', 'ɛːm˥'),
('N', 'ɛːn˥'),
('O', 'ou˥'),
('P', 'pʰiː˥'),
('Q', 'kʰiːu˥'),
('R', 'aː˥lou˨˩'),
('S', 'ɛː˥siː˨˩'),
('T', 'tʰiː˥'),
('U', 'juː˥'),
('V', 'wiː˥'),
('W', 'tʊk̚˥piː˥juː˥'),
('X', 'ɪk̚˥siː˨˩'),
('Y', 'waːi˥'),
('Z', 'iː˨sɛːt̚˥') google colabで学習したvitsモデルを自作で作って300回くらい回してみたがテキストで喋らせると謎の言葉でしかない
合成音声方式だとちゃんとキャラの声になってきてるんだけどなんか手順が足りてないのかなあ、クリーナーとかってのがよくわからない
[JA]保守[JA] >>122だけどわかったわテキスト書き起こししてないからだわ
この作業が一番きついな >>130
どっちかわからんかったのでひらがなでやってみて認識するようになったからそっちで作っていこうと思うんだけどどうなんだろ
あと全部のテキスト書き起こさなくてもある程度文章いれたら他のキャラでも学習してくれるっぽい気がする いや漢字もいけそうな気がする
訓練する前の前処理で文字を機械が読める文字に整理されるみたいだけど漢字にしててもa↑ri↓gatoo go↑zaima↓sU みたいに変換してるわ >>134
あんま意識してなかったけどutf-8でやってた
嫌儲ディスコ鯖管理人としての緊急連絡
乗っ取られたカウントを発見したためBANしましたが、該当ユーザーから個別DMで不審な招待URLが送られていることを確認しました
もし不審なDMが来ていた場合、URLを絶対にクリックしないようお願いいたします tacotron2で合成したけどVITSに変換できますか? VITSの方wavsフォルダがないけどどうするんですか ぶっちゃけ日本、絵やらアニメやら声優やら関わってる人多いのだから、
ネット上のアニメやら漫画やらをAIに学習させて活用するって発想して
実現するって動きが、そういう日本だからこそワンサカ出てくるものだろうと
予想していたのだがな
で、中国とかに持っていかれる
いくらコンテンツの生まれ出る国でも、技術音痴さで遅れて失う
この先どんな分野でも、そんな感じで衰退していくのであろう >>146
開発者にインタビューしてきたけどアニメは学習素材にしてない >>147
このAIに限った話ではなくって、自国産コンテンツにAIを採り入れての
更なるコンテンツの革新と生産についての話だったすまん >>147
アニメ素材にしてなかったらアニメでしか音声なさそうな作品ちらほらあるのは無理な気がする >>146
関わってる人が多いからこそ自動化して全員失業じゃ洒落にならんでしょ
新興国でしがらみのない中国だから出来ること 今期で放送されてるアニメとかアニメ素材無しでどうやってやったんだ? 冬月先生みたいに1つしか素材無いキャラは謎のショタボになるみたい
逆にクロコダイルとかバギーは4つしか素材無いけどかなりクオリティ高かったよ 声だけのモブ声優はもういらんな
トーク力や容姿がいいやつはその付加価値で生き残るだろうけど アニメから切り取った音声素材サイト使ってるけど直接アニメは使ってないってことじゃね
あっちの人的には 中華は知らんが日本だと
アニメの音声を音声として聞いて楽しむためではなく
研究目的でのデータベースは合法でしょ
「~のかわいい声100選(皆聞いてね)」なら違法になるけど
「少女キャラ、100ボイス(サンプルボイス)」なら合法なんでしょ? しかしこれ1回作ったモデルに後からキャラ足したり順番変えたりできんのね
いっぱい作りたいなら最初からキャラ枠と何個かのボイスはセットしとかないといけないわけか >>160
今の中国しらんけど、そういうの何でもOKな流れではもうない感じ?
今でもNHKの番組がbilibiliにあがるからありがたく見てるけど ビリビリに動画上がってたから削除要請出してきた
日本5CH反应:悲报!中国人使用2890位动漫角色声音训练出最强音声AI了!
https://www.bilibili.com/video/BV1Ne4y147CT/
[JA]保守[JA] VITSの学習で、データセットの解凍まで終わったんだけどhparams_training_files:とhparams_validation_files:はどうすればいいの? 「No dashboards are active for the current data set.」ってエラーが出る wavsフォルダを直下に移動したら今度は
「IndexError: tuple index out of range」ってエラーが出るようになった
c直下はどうですか?
[JA]保守[JA] ■ このスレッドは過去ログ倉庫に格納されています