成为虚拟管人

自从上次初次接触 VTube 已经过去了半年,在逛 Booth 的时候无意间看到了一款只要 2k 日元的皮套非常的好看,所以一咬牙就下单了,于是开启了我第二次成为皮套人的故事。

再次评测

当时用了 VTube Studio(以下简称VTS)和 PrprLive,这次依然是从这俩开始的。当时还能“勉强”使用的 PrprLive 现在简直不堪入目,据说(评论)这东西直接变成了一滩,所以直接没有采用。

与此同时,恰好碰到了 Steam 夏促,所以以 25 元拿下了 VTS 的 Remove Watermark(去水印)DLC。但是,恶心人的来了,我紧接着发现如果要使用 iOS 进行面捕的话我居然需要再交 168 元才能用?

所以我果断开始探索新的玩法。

购买摄像头

抱着试一试的心态,我花了 100 元左右的价格在并夕夕购买了 HIKVISION 的 2K USB Camera,只能说这次国货赢了。在选择这个之前,我还看过罗技的两款摄像头,一个是 BRIO,还有一个是 Streamcam,在看了视频评测之后发现其实并没有想象中的高清,同时略微高昂的价位也把我劝退了。

等了两天,拿到了摄像头,在 Webcam Test 上稍微试了一下,发现画质还能说得过去。于是 VTS,启动!一开始还是用的 VTS 内置的面捕算法,不能说垃圾,只能说稀烂,10秒钟里有7-8秒眼皮在抽抽,我差点以为没救了,直到我看到了 “RTX ON”。

优化面捕

“RTX ON” 也是一种 VTS 内置的算法,但是它把解析的工作交给了 Nvidia Broadcast 去做,效果是比 VTS 内置的几种好的,但是还是有小部分的时间会有眼皮抽抽的毛病。但是解决办法简直不要太离谱,我把摄像头的缩放拉到了 175 之后精度就显著提升了!(讲道理,这里大概是因为我离摄像头比较远,占画幅比较小,所以能看到在拉高缩放之后,面部锚点也相应放大了。)

除了 “RTX ON”,VTS 里还有另外一种算法,是 Google Mediapipe,浅浅试用了一下,效果和 RTX ON 差不多,但是会占用更多的资源,体感就是游戏帧数下降严重,所以算是给没有支持 RTX ON 显卡的兄弟们一条出路。

更多的玩法

在搜索的过程中,有一个软件引起了我的注意,VBridger,功能是作为 VTS 的插件,接收来自 iOS 上的 ifacialmocap 或者 FaceMotion3D 的数据来调整模型的动作,相当于翻译官。

FaceMotion3D 在 iOS 上是免费的,我尝试了一下之后发现和我预期的一样,非常准确,所以我觉得和 VBridger 配合应该能做到,甚至超越 VTS iOS 的能力。可惜我没有超能力,不太想负担额外的 37 元,所以没有尝试。

Re:当我尝试变成 VTuber

上一次尝试的时候提到的“VTS 没有透明背景”的问题在这次的体验中也完美解决了。如果使用 OBS 直接捕捉 VTS 画面的话可以使用纯色背景,在 OBS 里将透明背景打开就好了。除此之外 VTS 还提供了 Spout2 传输画面,据说是更好一点,体验下来没什么大区别。

结尾

可惜买了女皮没有变声器,不能成为大家的赛博老婆了。(bushi