千爱 发表于 2018-8-11 11:06:08

步入青年忍者神龟世界,对话《忍者神龟:崛起 VR》

尼克国际儿童频道(Nickelodeon)在圣迭戈国际动漫展上亮相了“Rise of the Teenage Mutant Ninja Turtles VR Interview Experience(忍者神龟:崛起 VR采访体验)”,其中用户可以步入青年忍者神龟的世界,并且在虚拟现实中采访《忍者神龟:崛起》的扮演者。这种独一无二的采访允许用户可以与米开朗基罗或多纳泰罗进行对话(分别由系列声优布兰登·史密斯和乔什·布雷纳配音)。Unreal日前采访了尼克国际儿童频道娱乐实验室高级副总裁Chris Young,以下是映维网的具体整理:
    是什么启发了你将VR用作“忍者神龟:崛起”动漫展新闻发布会的媒介呢?
    这个想法起源于我们在拉斯维加斯NAB展会与 Epic Games ,Adobe和NewTek举行的会议。我们已经整合了一个管道,利用NewTek的NDI技术来将Adobe Character Animator传输至UE4中,而且我们希望在游戏引擎中进行实时动画制作,VR则是近距离体验它的明显方式。我们围绕实时木偶戏进行了大量探索,并将全身和面部表现捕捉传输至Unreal,而当能够结合忍者神龟的机会出现时,令记者直接在实时体验中与我们的角色进行对话似乎是一种创新体验。
    现场体验是否集成了动捕呢?
    由于《忍者神龟:崛起》是2D设计风格,我们依靠Adobe的Character Animator工具来处理动画,这允许我们在用于角色的模型,艺术上进行创作。我们有一个大型动捕空间,其中我们正在开发几个项目,采用更传统的表演捕捉和一个流式传输至UE4的管道。
    请你描述从创建初始CG/环境asset到最终采访的工作流程(硬件和软件,头显,捕捉)。
    这款VR体验是通过Unreal引擎进行开发。在游戏引擎中开发这种体验可以支持你创建实时交互和对话。我们使用NewTek NDI技术来体验米开朗基罗和多纳泰罗木偶。NDI允许你通过共享网络流式传输大型视频文件。米开朗基罗和多纳泰罗是由Adobe Character Animator进行实时驱动。MIDI Keyboards则用于触发米开朗基罗和多纳泰罗的各种姿势。这些MIDI Keyboards是在采访中进行实行操作。NDI允许你从Character Animator导出木偶,并由其他各种使用这些实时动画进行体验和合成的机器进行拾取。
    当用户站在绿幕前的时候,他们将合成至纽约市的屋顶,并且尼克儿童频道的角色来作为头像。为了保持VR查看器的性能并创建高质量的输出,我们是通过提供网络观众版本的体验来完成合成。这一观众版本将前景层和背景层分开。然后,这些图层将在Resolume中显示,并与实时动作素材进行实时合成。最终合成将通过NDI导出Resolume。
    实况录像的最终合成,VR玩家的POV,以及两只忍者神龟的特写镜头和广角镜头都用TriCaster进行录制。TriCaster允许你在采访过程中进行实时编辑,能够在完成采访后通过拇指驱动器将ISO记录和最终节目编辑交给记者。
    我们在前景中使用2D平面的组合来作为背景元素和CG网格,从而获取VR查看器的正确视角。为了在3D空间中复制2D外观,我们将Maya中的变形网格对象带到UE4,直到我们认为我们已经为风格化的手绘环境捕捉到正确的视角。回到Maya,我们从VR玩家的POV向背景几何投射平面,并使用实际的Photoshop笔刷在这些平面UV上绘制纹理。这完美地捕捉了手绘的背景画风格。
    这款体验是否使用了与为Imax VR中心开发的尼克儿童频道体验类似的技术呢?这款动漫展体验是如何作为该技术的延伸呢?
    我们将许多用于处理VR pawns和VoIP的代码,以及我们为SlimeZone VR创建的一些CG角色asset融入至忍者神龟体验。
页: [1]
查看完整版本: 步入青年忍者神龟世界,对话《忍者神龟:崛起 VR》