【VaM】Virt-A-Mate Part.42【VR/Desktop】
ん?コテハン?って思ったらジェットキンキさんかw
VaM触り始めて深堀したいなぁって頃にあなたの動画拝見しましたよー
その節はお世話になりましたm(__)m >>263 ありがとうございます!私の動画は適当ですw
上手い作り方が分からないんですよ。
他にもVaMの動画を載せてる方はたくさんいるが
どうすればあんな良い感じになるか分からず
まぁセンスの差なのでしょうねw
VaMが今後さらに発展する可能性は...低いと思うが
「何が何でもあの子を作るぞ」という悲願を達成するためには
VaMとVoxtaのコンビまだまだ伸びしろアリとは思うんですけどね voxtaはモーションや表情はどうなってるの?
予め用意したパターンを選んでるだけ?
AIで生成してたりするの? >>265 Voxtaは、Voxta単体で遊ぶ方法と、Vamと繋いで遊ぶ方法があって
Voxta単体で会話だけして遊ぶ場合は、基本は1枚絵のキャラクターと会話する形
(感情によって絵を変化させる場合は、その分の絵を自分で作らないといけない)
VaMと繋ぐ場合は、基本的には、モーション無し、表情変化もしないですね
Voxtaは、Timelineっていうプラグインを作ったAcidBubblesさんが
作ったソフトなのですが、故に、TimelineでVaM内の、モーションや表情変化を
自作した上で、Voxtaのシナリオ設定で、AIキャラがどういう状況の時に
そのTimelineのアクションが実行されるか?のスクリプトを作ることが出来れば
結果的に自分の思う通りのAIキャラをVaM内で動かせる、ということになりますが
ttps://hub.virtamate.com/resources/voxta-demo.50816/
これはVoxta+Vamのデモシーンですが、私的な結論は
「もう少し簡単になるまで待とうw」というところです >>266
やっぱ、まだなのかぁ
ありがとう
あなたにエロ神からのインスピレーションがある様に Voxtaはあくまで事前に用意したアニメーションをtimelineにセットしてそれを言語認識して実行してるね
そのスクリプトはたしか解説ページにあったしコード書かなくていいプラグインもあったはず
だけどそれってつまり音声トリガーを追加してるだけなんだよな…
AIとの会話だけならスマホの音声をキャラにつなぐだけでいいからvoxtaはいらないし
ようするに音声トリガーに課金し続けるかってことになる >>268 仰る通り現時点では、VoxtaとVamを是が非でも
繋ぐ必要はないな?という感じです。
ただ、私的にはVoxta.aiは面白くて、とにかく自由にAIキャラクターを作り
彼ら(何人でも参加可能)と、そのキャラとプレイヤーの関係性を
設定するシナリオを、同じくまた、自由に作成出来るので
・女子校生2人の会話を、消しゴム(私)になってただ聴いている、とか
・凄まじい人種差別主義者の女性に思いっきり罵ってもらう...など
とにかく何でも出来て色々面白いんですよw
この面白さは伝わらないかもしれないですが
今後色々期待、という感じです。 >>268 なんだけど、
少し探してみたら音声トリガー追加するプラグイン VoiceControl ってのが単体であった
「こんにちは」とか「またね」とか日本語でデモのライトオンオフできたわ
こういうのとAI会話アプリつかう方法でもお手軽だな。 ヘドリアン女王に怒られて次失敗したら命がないという設定で会話してみたい 質問です。
シーン Xacreux:Shorts No.2 でpelvis を位置回転共に
ロックしてあるのに TimeLine 上の移動ポイント通りに
間違いなく動きロックを外して on にしてみた場合より
腰の動きが安定して居てそのおかげで挿入離脱がとても
スムーズに出来ている。これはよい発見をしたぞ。と
自分で試みたのですがロックをした瞬間にどうしても
意図した所よりも移動してしまう。移動間隔をみながら
調整していますが、この調整をうまく出来る方法や良い
プラグインをご存知の方おられたら教えてください。 コントロールの位置がずれてるならロックはそういうものだと思ってた。 >>272 面白いですねw 女王から見たプレイヤーの見た目や性格
失敗した場合の処刑方法、実際に処刑されてしまうのか?案外
命乞いすると女王はプレイヤーのこと実はカワイイと思ってて
いい感じになる...など、想像が尽きないですねw 凄い。まだまだこれからって感じではあるけど
それもすぐなんだろうなぁ voxtaって喋るだけじゃないんだー(全然知らない) このスケルトン駆動の枠組みは自作 今後voxtaを司令塔として連携させる予定なり >>280
ディープラーニングってollamaとかでモデルファイル動かしてるのか、それとも学習させてモデルファイルそのものを作ってるのかで言うと、ひょっとして後者? >>281
PythonでVAEにidleアニメを教師として食わせて、学習済みモデル作ったよ すげーー!(小並感)
素直に今後の進化が楽しみだなぁ ありがとう 昨日の夜、やっとまともに動いた段階だから、これから磨きをかけてくつもり >>276
おお凄い
ぎこちないけど意思を感じられるね
真の人工知能の誕生にはフィジカルと本能が必要だと思ってて
そこはエロ分野での活用により飛躍的に進むと推測してる なんか飽きたな
VaMに飽きるとか一体どんなレベルなら満足するんだ俺は… >>284 Youtubeでコメントした者ですが
ほんと夢の世界は近いですw
VaMは、映像表現としては限界(暫し休止)で
今後しばらくはAIを利用して理想に迫る、と
いう流れになっていくような気がしますね 初期の頃から遊んでるけど正直飽きは多少感じてる
まあキャラメイクできる系の強みというか造形変えたり新しいプラグインが出続けてるお陰でまだ遊べてる
ただこのご時世2.0がでても絶対にロリ作れない制限掛けられる可能性あるから
ずっとこっちに引き籠るかもしれん DirectXのかわりになるAIレンダラーみたいのが出ればなあ >>289
励みになります ありがとう
ようやくハードの進化がVaMに追いついてきて、バックで他に処理回す余裕が出てきた感じするから、これからが面白い気がする。2.0も未来感じるけど重くなったら方向広げられん、、 >>276
すごいね……VAE を使ってるってことは、HaのWorld Modelsみたいな映像からの学習?
(物理演算で自立させるなら強化学習になりそうだし……
いずれにせよ姿勢制御の方は倒立振子みたいなロジックは使ってないんだよね?)
あとTimelineを使わないで会話用途だけならVoxta は重すぎるんじゃない?w 物理演算による自立、ロマンあるよね。今回の学習データはhubにある様な偉人方のアニメーション、それを機械学習に使える形にエンコードして… て形。
LLMを別PCにLAN経由で投げてるからVoxtaが重いと思ったことは無いなぁ。 今回の偉業って自由に座ったり歩いたり身振り手振りがスムーズに出来るようになるまでに、どれぐらいかかるんだろう? voxtaの感情推論を利用して、idle動作が遷移するくらいなら、きっと近いうちに、、 でもよく考えたら、おれの好みの癖ありオホ声BBAはAIで再現されるはずがなかった
ロリ勢もこの問題あるかもだが技術がいくら進歩しても平均化される場合はなかなか悲しいものがある
地道に今やってることを続けるか… 生まれた時代を間違えたな
100年後だったら、ガチのアンドロイドと遊べたかも知れないのに Altmanさんの新作?Looksがhubにきてるね
タイムリーなのは偶然なのかここを見てるのか
しかし、この顔、この体型のキャラをhubに上げたりしてbanされないのか心配 たまに他人のLookも使ってみようと良さげな有料Lookを使ってもスクショ詐欺だったり
特殊な色の照明でしか肌色がまともにならなかったり
体が全然適当だったり、結局自分の長年作り込んできた自作Lookでしか満足できない ライティングでかなり変わるからなぁ
いわゆる画像編集のスクショ詐欺はないと思いたいが ライティングって、ダンスとかセックスみたいに動きや
立ち位置がかわるシーンでは皆どうしてるの?
キャラの位置に合わせて細かくライトも全部動かすの?
それってメチャ大変そうだけど、、、 詐欺しているつもりはないだろうけどね
そもそも全ライティングで通用するような
Looksってリアル系なんかはかなり厳しいだろうね ライト多すぎると影が無くなってノッペリするよね
3個くらいに抑えて陰影を意識してシーン作ってる VAMは照明ゲーといっても過言じゃないと思う
色々作品見るけど照明気にしてない方々多すぎ vamは手軽さが全くない
hs1なんて起動してキャラ呼び出して
色々させるなんてすぐできるのに
vamはいちからプラグインあれこれ登録して
とかやらなきゃならない
lightもvrだとhmdに追随して動かないし >>303
そういうのは自分の目線にライト追随させるんだよ >>307
もともとゲームじゃなくてクリエイター用のツールだからしょうがない
それに共有されてるもの使えばいいんだから全然手軽だよ
あとVRだと照明動かないとか思っちゃうならもう少し先人の偉業に目を向けることをすすめる 基本的にハニセレでできることは全部できるしハニセレじゃできないこともできるから面倒でもVaMやるわ
セミリアル系好きだから好みはハニセレ顔なんだけど先人たちの遺産でセミリアル系も作れるのでハニセレに戻る理由も無くなった
唯一苦手なのはアニメ系のキャラ造形だからそっちはコイカツとカスメで補うしかないけど 面倒くさいとか言ってる時点で
この板で教えを請うても先人達は答えてくれまへんで 273です。
発想を転換して男性のHIPとPERVISをロックして
おいて女性側をむりくり合わせることにしました。
とても良好です。原作者に感謝します。
あとは全てのコントロールをロックすれば急激な
動作にもこれで行き過ぎや揺り戻しが起きなさそ
うなので確かめますがそれは報告しませんので。
アニメ活劇作るのでもなければ必要ないですよね。 基本的に白いライトで上手く肌色が表現されるのが普通だと思うんだけど
なかには、黄色いライトとかで調整されちゃってて、普通のライティングだと肌色が白すぎて変なのとかある
それを調整すると今度はそれにつられて顔の印象がおかしくなったりとか面倒なのが起こる
身長にしてもそう。特殊なロリ体型のをメインで作ってる人の作品とかは、普通の体型では腰の位置が合わなくなったりとか・・
自分はBasebodyでやってる。スケール測ると170cm以上みたいだけど。
他の人のシーン使わせてもらう分には汎用性高い方に合わせるほうが無難よな 他人のLooks使う時の鬼門は髪だと思ってる
スキンや照明は気に入ったやつをPreset/SubSceneに登録していても、髪は頭の形状に合わないとどうしようもない
CurveNormaladjastやら頭部morphの変形では限界がある
かといってVaMの髪は調整が大変だから極力Styleは触りたくないわけで 髪は女の命、vam内のlooksでもおんなじ
物理とか弄るとこはFPS見ながらトコトン拘る
そのまま使うとか今までないよ 髪触れるのがいいよねツインテ好きだから触ったときにサラサラって流れるのが凄く良い
胸やお尻もいいけど髪も同じくらい触りたいのよ looksをリアルにしようとすると必ず起こるのが不気味の谷現象
でもそこを乗り越えた先にはパラダイスがあるよのね 髪型そんな弄るなら自作してるのと大差ないし作ったらよろし
最初はカットが地獄なんだけど慣れたらそうでもない、むしろそのあとの調整が腕の見せ所になる
クリエイターの髪型弄り倒してるなら自作でもすぐいい感じの出来るでしょ
なんだかんだで自作は愛着わくし質が良くなるし使用頻度高いよ >>320
不気味の谷は顔テクスチャと眼球の陰影さえしっかりやっておけばあとはモーフとボディテクスチャと瞳と口内テクスチャと髪型と服を入念に調整すれば起きなくなる。 今日YouTubeで、FaceGenを使い1枚の写真から出来るだけ高速に
バーチャメイト用の3Dモデルを作る、という動画をアップしたのですが
もし皆さんに「こういう方法使うと簡単に似るよ!」とか、「このアイテム(clothing)
をくっつけると楽だぜ!」など情報ありましたら、是非動画にコメントをお願いします。
せっかくの金言も、掲示板では流れて埋もれてしまう可能性高いですので。
今回高速1発撮りですので、似てるか似てないか?では80点くらいというか
うーん...という感じなのですが、まさにバーチャメイトあるある、で
皆さんにはご理解いただける、ような気がします。
宜しくお願いします。 動画お疲れ様です
残り20点の手作業は必要だけど、1時間でこの寄せ方なら全然ありですね 新し目のVamTimboとかC&G-STUDIOとかのシーンで、
シーンプラグインの一部をオフにしてセーブしても、
再度シーンを読み込むと、そのオフにしていたプラグインがオンになってしまう事って多くない?
なにが原因なんだろう。オフのままオンにならないものもあればいくら試してもオンになってしまうものがある
プラグインのタイトルのせいとかじゃなく、プラグインを違うものに入れ替えてもなるのでその順番のものがそうなるっぽいが・・・ 困るのがオフにしてセーブした後に、ただオンになってロードされるのでは無くて
リロードされてオンになってるみたいなので、入力しておいた数値とかがリセットされちゃうんだよね >>323 ありがとうございます!問題なのは
例えばそこから6時間粘ろうが、何日かけようが
似ないものは永遠に似ないかもしれません。
潔く始めに戻るとそれが正解だったとか色々ですね。
TripoAI使うことによって、鼻、頬、唇は手を入れなくて
良いですが、額、眉、目元の角度などは相変わらず鬼門です。 間違えました。327のコメントは、>>324の方に向けたものです >>325
それプラグイン導入時に常時オンにする選択してない?
文面読むと違う可能性もあるけど、まだチェックしてないなら
ゲーム内のアドオンパッケージマネージャーってとこから、常時オンプラグインのタブを選んで
ユーザー設定ってとこで変更できるから見てみ >>329
ひとつ例を挙げるとVamTimboのOctober Danceだけど、
その中のshakeitと、betterbendがオフにしてセーブ後に読み込むとオンになってしまうプラグイン。
glanceやナチュラリーはオフにしてセーブすれば読み込んでもオンにはならない。
確かに、そのshakeitとbetterbendのどっちも常時オンのチェックボックスは入っていているんだけど、
glanceやナチュラリーも常時オンのチェックボックスが入ってるんだよね。なんかおかしいんだよね。 気になるなら一旦、まっさらなシーンで検証だね
もしかしてオフにしたあともシーン内ではプラグイン走ったまま
セーブしてる可能性とかもありそう
betterbendみたいに時差がないプラグインにそれがあるかは怪しいけど
おれは勝手にオンの現象起きなかったぞい facegen鼻とか目をクッキリ描写しすぎでない?ぼやかすと良くなりそうに感じる >>332 仰る通りfacegenはそのまま生成すると、まずはくっきりした洋顔が生成されます。
動画の最後の方でfacegenのEast Asianのタブを高めると、顔もテクスチャもマイルドに
なるっていうのをやりましたね。 >>323
動画見たよ。自分は一切試したことがないから「へー!」「ほー!」って感じ。
っていうか、作成したものをVAR化して配布してくれるとか、ないの?
配布して他の人たちがVAM内で微調整したらこんなに良くなったよ!っていう話が出てくると思うんだが。 テクスチャって偉大だよねぇ。
睨み顔や、嫌がる顔を作るとき、モーフでは限界があるから
テクスチャを改造するしかない、と考えてるんだけど、
どういじれば良い感じになるのか模索してる。 あの動画は一時間くらいでサクッと作ってもここまでできるよ、って例であって、ジェットさんも時間かければもっと調整して良くできる余地はあるのでは?
動画のモデルを配布してもらって調整しても、ジェットさんが啓蒙したいこととはずれてる気がする。 >>335
いやいや普通にポーズで表情変えればいいやん 顔のテクスチャでずっと気になってるのが目を閉じたときの二重の黒い線が
すごい不自然に見えちゃう点 >>335 ありがとうございます!昔のテレビチャンピオンじゃないけど
1枚の写真から3時間でどれだけ似せられるか?大会!なんて
オープンライトな世界ならば良かったが我々アンダーグラウンドですからね
動画で伝えたかったのは、過去FaceGenでのモデル作りが抱えていた問題を
汎用AI使ったり、3D作るAIなどで、かなり取り除けるようになったことです >>336 仰る通りで、私の意図としては、「今、AIの発展でかなりFaceGenで
モデル作るの簡単になったから皆さんどんどん作りまくりましょう!」という感じです。
Paid(有料)レベルのルックスもかなり簡単に作れるはずです。
1時間くらいで...と逃げてるのは、正直言って6時間かけても似るかは
分からないので似なかった時腹が立つからですねw
多分私の動画は、「一人のキャラを長時間かけて作り込む」タイプではなく
「80点で良いからとにかく量産するぞ!」って人に合ってるでしょう。 AIを使わなければ80点のキャラは15時間で出来る
AIを使えば1時間にできる
でも本当の仕上げはここから
さらに18点あげるのに3年かかる
さらに1点追加するのに1年多くかかる
自分にとって限りなく100点のlooksをイチから作って手にするってのは
こんなかんじやよ >>341 仰る通りで奥が深く、しかも答えがないです。
結局最重要なのはテクスチャで、写真の質感がそのまま張り付いてくれれば
非常に簡単に似るのですが、Genesis2のテクスチャの限界がありますね
証拠に、Blenderで、Facebuilderというプラグインあるのですが
これは写真の雰囲気がそのままテクスチャとして貼り付きます。
設定で仮面(顔)だけに出来るので、それをfbxでunityにインポートし
アセットバンドル化すれば、非常にリアルな質感(テクスチャ)の顔(仮面)を
VaM内に持ち込めますが、所詮ただの仮面なので顔にくっつけるだけですね。
Daz3Dのプラグインで、Face Transfer 2なんてのもあるが
これはGenesis8?か9?用なので、VaMのためには使えないですね。 >>341
逓減効果ってやつですね。私も一体作るのに1年以上かかります。 一体作るのに何百時間かけるもしまいには破綻して逆にブサイクになる。
バージョン2として一から作り直すが、モーフを操る技術が上がりだいぶ良くなる。
それでも微妙でバージョン3として作り直すとさらにいい感じになる。
こんな感じですね。 まだこんなにVaM頑張ってる人いたんだね。。てっきり残党は自分だけだと思ってましたw
最近話題の顔テクスチャですが、手書きって誰もやってないのね。
慣れるとまあ真似できんだろうなという唯一無二のLooksが出来上がっちゃうのでおススメ。
時間かかるけど、そこはエロパワーがなんとかしてくれんるんじゃないかなw
みなさんの健闘を祈る!! こんなにお互い気まずくなることなくずっとおっぱいを何時間も揉ませてくれる人はいないからね
顔とボディーも自分の理想通りにできるし、ある意味、現実より良い あの、ただの比喩だとは思うんだけど その・・・何ていうか
・・・ホントに?何時間も?クリッククリック?トラッキング+シリコン嫁?何時間も?
ごめん変な事聞いちゃった。忘れて。 >>346 手書きとは神業ですw エロ神様のご加護が...
私も自身は超少数派だろうな...と思ってましたが
まだまだ終わってないですよ。
2024年の4月くらいから、AIが急速発展したため
これを活かさない手はない、というところです >>348 ホントなんですよw 私の真の目的は、「亡くなった人を生き返らせる」です。
「真」の意味で、それを達成するには、バーチャメイト+AI、で、自身で作るしかないでしょう。
今、上記でLocal AI VR Lab(YouTube)さんが取り組んでいるように
@バーチャメイト内で、キャラクターがAIによって自律的な動きをする(表情変化、アクション、移動)
+
A今、既にAIは、画像や映像を認識し、それを説明する能力があるが、それをバーチャメイト内で実現する
B今、既にVoxta touchという、体に触れるとAIが反応する、というプラグインがありますが
それが更に詳細に(今は例えばToeならば、Toe全体で反応してしまうが、それが親指
小指、親指と人差し指の間、などで細かく反応出来るようになれば...)
そういった事が実現されれば、夢の世界到来ですが
私の読みでは、おそらく後2〜3年以内です(他力本願)すみません >>349
>>350
自分の場合はいつの間にかVaMが小遣い稼ぎの道具になってましたが、貴殿は志が違いますなw
ぜひその願いを成就してほぢい。 >>351 今の「AIの凄まじさ」に触れた人は分かると思うのですが
もう、人間が入り込める領域は、どんどん狭まってきています。
しかし、逆に、そういった技術を利用し、誰でもSNSなどで
簡単に(SNSなどで)名乗りを上げられる時代になったとも言えます。
「私は6年前からバーチャメイトやってたよ」と、せめて存在証明
しとこうかな、と、まぁそのくらいの気概ですね。VamJapanさんの
Bルックスのモーフを今でも使わせてもらってるくらいですw Looks作りにはまってVAMに費やす80パーセントが其れだから最近の話題は楽しく見させてもらってる
自分のlooksはG8.1の母体でDAZStudioとBlenderで造りこみVAMへコンバートさせたもので満足するまで相当時間をかけたものです 中東が凄いことになってて石油関連で日本にも影響出そうだけど取り敢えずVAMやってるわ。。 ロシア、アメリカ、イスラエル、パキスタン、ついでに北朝鮮
核保有国が競う様にがっつり戦争状態
平和と自由貿易で半世紀以上潤いまくってきた日本はこれから相当辛いねぇ
俺に出来るのはVAMでおっぱいコリジョン調整する位だ。
VAMから始まるラブアンドピース活動! 無理やで
世間はセックスよりもバイオレンスがお好みなんや >>352
やはりVaMの古株さんでしたかー。ともに10年プレイを目指しましょうw
AIも万バズして一時そっちに浮気してましたが、やつら、いかんせん最終処理が苦手で
最後の最後はやはりツール重ねとか手作業なんですよ。そこがめちゃイラつくw
確認とガチャ的な修正の連続で3Dより作業感強めです。
だからVaMのダイレクト感が心地よいです。
でもね、出力7割ぐらいの作品でも世間はくいついてくれるので小遣い稼ぎにはなってしまう。
んー、ジレンマ。 VaMやコイカツが出たときはこれからのVRはどれだけ進化するのかとワクワクしてたけど
まさか今だにこれらを越えるVRエロゲが出ないとは思わなかった
まあ今でも遊べるという意味では神ゲーなんだけどさ
でもエロって新しい刺激が欲しいんだよねそれでインスピレーションが湧いてくるから 皆さん達人ですねw まぁ私が目指すのは、AIの技術を利用して
「誰でも簡単に作れる」ことによってバーチャメイトの敷居を
下げれたら、というところです。まとめると
まず、女の子の画像は、「正面」「無表情」「前髪がない」「頭全体が映っている」など
条件を満たすものを準備する必要があるが、「MyEdit」や「Googleナノバナナ」など使い
どんな写真でもその条件を満たすことが出来ます。
3Dモデルを作るAIは、私は「TripoAI」を使うが、かなりコストが高いので
Hitem3Dの前身、「spark 3d」というのもあります。無料だが順番待ちで
かなり生成に時間かかります(PCの性能も影響するかも)
glbでしかエクスポートできませんが、フリーサイトで簡単に
objに変換可能です。
facegen(無料版でOK)で、顔写真読み込み、3dスキャンでobjファイルを読み込み
「Female」「EastAsian」のタブを強めます。「Interactive」のタブに入って
Ctrl+左右クリックで、おでこと、両まゆの端あたりの幅を調整。
(FaceGen→VaMに入ると必ず眉間、眉の幅などがおかしくなるため)
念のためにモーフは最低3種類くらい作っておきます。
テクスチャが生成されたら、私は「MyEdit」という映像系AIを使い
大きな声では言えないが、「色々消したり」「高画質化」します。
眉毛部分のテクスチャは経験上邪魔になる場合が多いので
消してしまって、服とか髪でつけるのが良いかもしれません。
これらの手順を踏むと、ほぼ無料かつ、高速に、まぁまぁのLooks作れます。
80点からどれだけ99点に寄せられるかは、その人の経験、技
また、個人の感覚差がありますね。
実際どんな感じか見たい方は私の動画を参照されてください。 >>358
そもそもVR自体がそこまで流行ってないしね スマホ2画面で、映像見ながらAI通話出来ちゃうからな
VRは一般に浸透しないだろうね >>359
ふむふむ
もう80点位ならやってみようかな
実践的な経験談は助かる
まあワイはロリなんで披露は出来ない >>359
あんまり敷居下げると定期的に沸く"排他おじさん"に怒られるぞw >>353
それはスキンの見た目がよりリアルになるという理解であってますか?