ไม่สามารถเล่นวิดีโอนี้
ขออภัยในความไม่สะดวก
あらゆるキャラクターに歌わせるAI技術の解説
ฝัง
- เผยแพร่เมื่อ 29 มิ.ย. 2023
- so-vits-svc-fork
github.com/voicepaw/so-vits-s...
Ultimate Vocal Remover
ultimatevocalremover.com/
この動画で使用したもの
VOICEVOX:ずんだもん、四国めたん
BGM:@DOVASYNDROMETH-camOfficial @ReoMusicCH
気まぐれロマンティック: • いきものがかり 『気まぐれロマンティック』M...
カラオケ音源:@namakara
効果音:効果音ラボ様
立ち絵:坂本アヒル様
他の絵:いらすとや様
相変わらずの技術力流石すぎる…
この面倒な作業が全部やってあるモデルがboothとかで売られてるけど、ずんだもんや声優の著作権を侵害してるからぜっっったいに買っちゃダメだぞ!
ライブラリだけはこちら側で保持しないといかんのですよ
著作権問題のない自作モデルもあるっぽいのでそれはOKのはず
手順簡易化パッチとかがあるといいんだがな
作るしかないか…
米主のお兄さん感好き
声優の著作権とは何を指しているのでしょうか?声優のような特定の個人の声という概念に肖像権のような法的権利があるとは聞いたことが無いですし、人間の声が学習元であってもAIが生成したものであれば著作権は認められていません。せめて「声優、もしくは声優の所属する事務所に精神的苦痛で訴訟される可能性」であればまだ分かるのですが。
可愛い…。そして想像よりも人力で作られているんですね。
予想以上ですげぇ…マジですげぇよ…
凄すぎでしょ…。自然すぎる
ずんだもん気まぐれロマンティック可愛すぎる❤❤❤❤
もっと聴きたいです😻
すべての工程をさらっとやってるけど地力があってこそだよね。流石です!
すごすぎる!!推します!!!
なんて丁寧で親切な動画なんだ、、ceciliaネキ素晴らしすぎる。。
0:46 「喘ぎ声」を私は見逃さなかったぞ。
せしりああねきあにきのあえぎごえまだ?
おまえがみてるどうがはなんだ?
おまえがつくるんだよ
たすかる!じっくりみます
8:05 「まち」の「ち」にニキネキを感じる気がするんだけどこれも変換前はニキネキかな?
そこで気づくのかw
多才すぎて羨ましい
今まで裏でこっそり解説動画作ってた?動画凄い見やすいもん。
新しい動画嬉しい
おかげさまで推しに歌わせることができました!!感無量です!個人で楽しみまくりたいと思います!ありがとうございます!!
ちょうど気になってたから助かる
この動画のお陰で好きなキャラに歌わせる事が出来るようになりました!とても丁寧で分かり易かったです!ありがとうございます!
どこかに公開したいとかではないけれど自分で時々「この曲、このアーティストや声優さんのバージョンで聞きたいな」と思う時があるのでこの技術をちゃんと理解して出来たらめっちゃ楽しそう
凄いです!
兄貴すげぇ...
ずんだもん気まぐれロマンティック、フルであげてほしい・・・
凄ぇ!!
解説たすかる
わかりやすい動画をありがとうございます!
よければDAWでミックスの方法についての解説やコツの動画も欲しいです!
すげぇ!
すご、、、、、
この人すごい
逆にCecilia姉貴兄貴が出来ない事って一体…何?
性交渉
@@user-pj1by4xm7u草
バキバキ
@@user-pj1by4xm7u勝手に童貞にされてて草
@@user-pj1by4xm7u頑張れば成功できる
まじ楽しい
凄くて素直に賞賛です。PCスペックがあればローカル版でもできますね、こっそりと楽しみます。
はえ~すっごい
前半チラ見せされるファイル名が草
やっぱすげぇなぁ…
この技術は分かりづらいくらいがちょうど良い…
人間の形をした猿に見つかればこの学習を必ず悪用するに違いない
技術自体は本当に素晴らしいのだが
きっと1年とたたずパッケージ化され、ドラッグ&ドロップでできるようになる
翻訳前の聖書かな?
手遅れ定期
「人間の形をした猿」?AI絵師に粘着誹謗中傷してるAIアンチさんの事かな😅😅
???)私に従え。猿ども、、
うぽつ!
私が何回かやってみたところでは十分も入らず、3分程度の音声データでも相当似たモノが出来ました…
こりゃ末恐ろしいですな…あまりにも簡単にできてしまう
2:54 おや?
はえーAIってすごいんすねぇ
解説動画ありがとうございます!ある程度できるようにはなりましたが、最後の調整がなかなか難航してます…笑
この動画を見て一通りモデルを作って変換するところまでできました!
とてもわかりやすい解説をありがとうございます。
素材について質問なのですが、ハモリやBGMの入っていない素材が好ましいとのことですが、
ハモリやBGMなどが入っている素材があると最終的に変換の精度が落ちてしまうのでしょうか?
あれ前回の動画見た時も気づかなかったけど姉貴兄貴だったんだこれ
なるほど
サムネのマイク押し付けられてるずんだもん可愛い
これって自分の声学習させたらめちゃ歌上手い自分が生成されるってこと?!
自分の声質がその歌に向いてるかどうかでうまく聞こえるかは変わるけど、聞けるレベルにはなる。いわば音程合わせだからカラオケ上手い人みたいな感じ。
@@adenosin1rinsan自分の声での”カラオケの正解“ってのを知れるのか…?
ゲームのキャラのボイスデータを使ってAIに学習・歌唱させたものをTwitterに投稿する人が現れる→キャラの声優本人が「私は学習を許可してません」と引リツ→同じ作品の他キャラ声優(AI反対派)がブチギレ引リツ+投稿者に引リツを駆使しながら粘着→引リツの影響で事態を知る人が増え、動画が削除された後も鎮火せず大変なことに
私の活動する界隈でもつい最近こういうことがあったから、悲しい思いをする人を出さないためにも、こうした技術を使うなら完全に個人で楽しむ範囲だけにとどめるのがベストなんだろうなって思う😢(残念ながらそうした生成物を公の場に出してしまう人は少なくない)
一番の理想は声優や歌手の許可無く学習させないことだと思うけど・・・大変な時代になってしまったな。
まぁ本人が喋ってるかのように勘違いさせる感じじゃなければ...
@@user-uo9nu3zj5e 多くの声優さん達にとっての1番の問題は「自分の商売道具である【声】を勝手に模倣され、使われること」なんです(もちろん考えの違う声優さんはいるかもしれません)
「これはAIで作りました!ご本人の実際の声ではありません!」と明記すれば良いということでもないのです・・・
いつも思うけど「学習の許可」ってなんなのかな。やってることは声真似と変わらずそれっぽい音が聞こえているだけ
やられたら言葉に表しにくいすごい嫌な気持ちになるのは分かる
@@user-ho4dd8wl1x 無断で学習されてしまった声優さんの実際の言葉として「とても不気味だ」というものがあったので、おっしゃるように、不快感を覚える声優さんは多いと思います。
その「それっぽい音」を、本物が歌っていると錯覚してしまうクオリティに、誰でも簡単に出来てしまう事も問題の一つではないかと思います。
本来なら「お金を払うので、この歌を歌ってください」となるはずなのに「この声優の既存の音声をAIに学習させれば無料でそれっぽく歌ってくれるから、声優にはお金払わなくて良いや」となってしまうんです。声優さんたちにとっては、たまったものじゃないでしょう。
もし声優が正式にAI学習の許可を出すようなことがあれば「私の商売の邪魔をしても構わないよ!」と言ってるのとほぼ同義になってしまうので、本来であれば許可なんて出ないでしょうね・・・(そして人々も、許可なんて出ないと分かってるから勝手に学習させるんだと思います)
長々失礼しました。
AIを使った事を隠して
音MADって書いておけば炎上回避できそう。
そう考えると音MADが黙認されていてAIが叩かれるのは謎。
凄い…お金溜まったら姉貴兄貴にフリーナのAI音声の依頼したい。フリーナにラフィンとか歌わせたい…
素晴らしい技術力の動画を本当にありがとうございます
投稿からかなり時間がたってしまっているので質問はもう受け付けてらっしゃらないもしれませんが自分でやってみたところ4:42のTrainの部分で橙色のTensorBoardなるものがでてきたのですがこのままで問題はないのでしょうか? それとも残り何分みたいな表示は出ますか?
是非教えていただけますと幸いです
I think it sounds more Zundamon-y than NEUTRINO
とてもわかりやすい動画をありがとうございます。いくつか質問させてください。
途中で止めた学習を別の日に再開する場合も、同じようにcolabの左側の再生ボタンを上から順に押していけば良いのですか……?
また、ある程度学習したキャラクターに音源素材を追加したい場合はどうすれば良いのでしょうか…?
最後に、複数キャラクターを作った場合、AIモデルの保存場所はどうなりますか……?
途中で止めた学習を再開する場合、また左側の再生ボタンを上から押す必要があります。素材を追加したい場合はキャラ名のフォルダーに入れておけば次ノートブックを起動した時、追加された素材も学習に取り組まれます。複数キャラクターを作る場合、私は完成したモデルを違うフォルダーに移動してから新しいキャラクターの学習を始めてる。
Trainingのひとつ前のF0 METHOD=crape〜の段階で3時間くらいかかっててまだ終わらないんだけどこんなもんなのかな…(素材数365)
そこまで長くはならないはず…
この部分に関係あるかはわからないけど、もし素材のフォーマットが44100Hz、Monoじゃなかったら一度フォーマットをそれにしてやり直してみてください。
デジタル技術の驚異って奴ですな
うぽつ
最後まで見てから気が付いたけどネキニキやんけ
よくわかってなくて申し訳ないんですが、tensorboardのオレンジの帯の右側にinactiveと出ているんですがこれは動いているのでしょうか?一応実行中にはなっていて、下のほうに謎のグラフのようなものがいくつか出ています。
ブリムオンの囁きASMRお願いします
なにを目指しているのか
4:57
繰り返す時って、どこから再生ボタン押せばいいですか?
質問なのですがボーカルを抽出すると雑音が少し入っていたりするのですが雑音が少ないけどはっきりしない音源と雑音が多いけどはっきり声が聞こえる音源どちらを学習させるときれいに変換できるようになるのでしょうか?
so vits svc forksのinterを押してからなんですけど
5分間の音声はどのくらいで変換完了しますか?
20分くらい待っても終わりそうになくて、、、なにか間違ってますかね
なんかtrain押しても数秒で終わってしまい歌わせても何の声なのかだれの声なのかわからない状態になっています。
これの対処法などあったら教えて頂きたいです
5:11 BADファイルダウンロードしようとすると信頼できること確認してって言われてできないんですがどうしたらダウンロードできますか?
uvr起動したときUnhandled exception in scriptって出ちゃう
Install dependencies のところでエラーが発生して止まってるんですけど
iPythonが7.34が必要ってログが出るんですけどこれってPythonで仮想環境を作らないといけないってことですか?
GUIのモデル選択をする時Browseを押すと予期せぬエラーでPythonが終了してしまうのですが、解決方法が分かる方いますか?😢
使用PCはMacBook Air M1です
Can you do an asmr of Delphox next plz?
歌のSVC、汎用性のRVC
自分のGPUを使用する場合はどうしたらいいのか教えていただきたいです
5:10 GUIをインストールしてもファイルが開けないのですが、Windowsじゃないと利用できないのでしょうか?使ってる機種はMacBook Air M1です。
Use trained modelのところでエラーが起きるんですけどどうしたらいいですか?
0:47 さりげなくある物w
Studio Oneはいいぞ
わかりやすい解説動画助かります!
質問なのですが学習元のデータファイルはモノラルでWAV形式であること以外になにか条件があるのでしょうか?ご教示いただけますと幸いですm(__)m
それで大丈夫だと思います
@@cecilia9274 ご返信ありがとうございます!
素材の切り分けをする時はDでアイテムの音量依存分割ってのをすると幸せになれると思うよ
これiPadとかMACじゃできないですか?
人力でやると途方も無い時間と労力が掛かるのに今の技術はすげぇな
なんで素材を5~10sのファイルに分けるんですか?わかる方お願いします
これなんか
Install dependencies のとこでエラー吐くんだけどどうしたらいいんだろ
GUIファイルの開き方を教えてください
質問なのですがもしTrainを途中で中断して新しくTrainを始める場合、前のTrainの成果(記録)は受け継がれるのでしょうか?例えば6時間学習させようとしたけれども3時間でPCが落ちてしまい、学習が止まってしまったら1からやり直しになるのかということです。
RVCは引き継ぎませんがsvcは保存できるように設定できます
と思いましたがrvcにもconfigファイルがあるので出来るかもしれません
今病に伏していて確認できません😭
@@Zab_n 何度か試してみたところ途中からでもGooglecolabの一番上(GPUチェック)からやったら進行状況は受け継がれました。6時間ぶっ通しじゃなくて隙間時間でちょこちょこやってもなんとかなりそうですね。
どうやってその設定をするのですか?教えてくれるとかなり助かりますm(_ _)m
@@user-qd1wx1yr6p svcの話ですか?
とても分かりやすい動画ありがとうございます!参考にさせて頂いております🙇♀️
質問なのですが、2:50に5〜10秒の個別ファイルとあるのですが、短すぎる歌音源の素材は編集して5〜10秒にまとめてしまうのが良いのでしょうか?
それで良いと思います、自分もそうしてます。
@@cecilia9274 ありがとうございます!
たくさん動画見ます!!
REAOERでの出力のことなんですがトラックごとに分けて一気に出力する方法がわからなくて困っているんですが設定など教えていただけないでしょうか・・・
出力(Render)画面の上のところ、SourceをMaster mixからStems (selected tracks)にすれば選択されたトラックをトラック別で出力できます。
@@cecilia9274 返信感謝いたします。どれを出力しているのかわからなくて困っていたので仕様がわかってすっきりしました、ありがとうございます!!
素材が足りないときに逆再生したものや再生速度を弄ったモノを混ぜるとどうなっちゃうんだろう❔
試したことはないけど、変換された音声に違和感が生じると思います。
@@cecilia9274 なるほど…
試してみますね
無事にモデルが完成するかはわかりませんが
Trainで学習させるところまでは行ったんですけど、
No dashboards are active for the current data set.
と出てしまい、TensorBoardが動きません、、、どうしたら解決できますか?
全く同じです( ノД`)
これ歌じゃなくて喋らせることもできるんですかね??
Ultimate Vocal Removerを起動するとエラーが出ます。
主は歌上手いから自分で歌うという選択肢があるのか...ww
GitHubにcolabへ飛べる場所がないです
動画面白かったです!
GPUがないので,RVCとSVCをなんとかクラウド上(paperspace)に環境を作ってやっているのですが,
うまく歌わせるのがめっちゃ難しいです。
音楽の知識が全くないのですが、SynthVや
NEUTRINOで歌を作る場合には耳コピという技術?が必要みたいなのですが
それを作りやすくするソフトなどはありませんか?
それとこの動画では複数のソフトが紹介されていますが、知識がない場合はどのソフトから始めれば良いなどはありますか?
(一応UVR5とaudacityは少しだけ触りました)
追記:
お安めまたは無料のDAWがあれば教えてください!(動画のDAWは自分的には少し高かったです)
GPUはGTX1650はありました(調べてたら必要だったので!)
耳コピが難しいのは、もし音程が分からないからでしたらwavetoneという分析ソフトをおすすめします。UVRでボーカルのみにして、その音源をwavetoneに通せば音程が出てきます。
無料のDAWだとCakewalkとWaveform Freeがあります。あとREAPERは無料じゃないけど無料です。
@@cecilia9274 無料のdawかなりたくさんありますね!プラグインなども沢山あって
難しそうですが、とりあえず触ってみます!
動画の手順通りにやってみて成功したのですが、2回ほど学習をさせてからtrainを押してもtensorboardというものが表示され5分ほどで学習?が止まってしまうようになってしまったのですが、似たような症状に陥った方いませんかね?
一回データを全て消して一からやり直したら解決しました。
同じ問題で悩んでる人の役にたてれば幸いです
ほんと何でも出来るなCecilia姉貴兄貴
よく原神の動画で歌わせる動画があるけど、ほとんど許可もらってないんだろうな。
googleplayの広告おまえだろ
❤
【至急】7:25秒のところの、inferの上にあるuse GPUが選択できないようになっているのですが、どうすればいいでしょうか?
多分あなたのpcにGPUがないからじゃないから
@@Sacabambispis あーそういうことなんですね!ありがとうございます!
質問なんですけど、左側にある再生ボタンをおすといくつか嗄再生ボタンが赤くなってエラー?みたいになってしまします。こういう場合はどうすれば良いでしょうか?
これ清春でやったらどうなるんだろ
2:57 yajuusenpai
5分5秒から高度すぎて無理ぽ……
ずんだもんの気まぐれロマンティックfullもあげてー