我们还注意到另一个案例,当我们用游戏制作美术的时候,花同样的钱,我们可以把整个美术场景做得越来越漂亮。过去,我们只能把在前面的视角做得比较漂亮,但现在花同样的钱能把整个视觉都做得非常漂亮。我们已经看到很多这样的案例。

此外,我们最近还发现了一个名为 Inword 的平台。这个产品事先已经训练好了各种非常有性格的人物角色,可以直接将这个代码集成到游戏中。这样游戏中可能会出现像马斯克这样有性格的角色。其他人已经把这些集成好了,只需要接入使用就可以了,游戏体验将会得到非常快速的改善。

见智研究:哪些AI模型可以应用于游戏领域?各自的特点是什么?

杨晓峰:

现在有两种成熟的模型,一种是大文本模型,另一种是 2D 作图模型,还有一种处于爆发期的2D转3D NeRF模型。

第一类模型是文本生成模型,例如 ChatGPT 和国内的各种大模型,它们可以接受文本输入并输出对应的文本,这种模型被广泛使用。但在游戏中,通常直接使用其中的角色。

第二类模型类似于文生图,它可以根据输入的文本生成各种各样的图片。这种模型已经非常成熟,大多数互联网公司都在使用它来生成图片。比较著名的有Stable Diffusion和 Midjourney,其中Stable Diffusion的使用较为广泛,因为它所需的费用较少;Midjourney面向消费者,使用体验较好,且对电脑的要求较低。因此,后续制作 2D 图像时可以使用它。

现在还有一个模型即将爆发,可能会在未来半年到一年内实现,它是将 2D 转化为 3D 的模型,名为神经辐射场(NeRF)。只需拍几张照片,就可以立即生成一个包括场景和人物的 3D 模型。想象一下以前制作游戏时需要的场景图,如刺客信条中的巴黎场景。现在只需花费一些资金用无人机拍摄一些视频,就能立即将 3D 模型建立起来,成本降低非常快。这是目前可能已经使用的模型。

见智研究:生成3D模型的方式有哪些?分别有何优劣?

杨晓峰:

过去生成 3D 的方法一般是通过画平面图进行建模,例如对于一个角色,可能需要从不同视角画多张图来进行建模。然后建模师会使用建模软件一个个搭建,例如将立体的头发贴到人脸上。这种方法需要花费大量的时间,可能需要 2 到 3 周才能完成一个人物的建模。优势是每个物体都是比较精巧的立体结构,但劣势在于时间成本很高,因此一般会交给外包公司去完成。

还有一种叫照相技术的方法,即通过拍摄物体的照片来建立模型,但是每张照片必须要重合50%才能建立一个模型,但这种技术对光影等细节处理比较困难,因此很少被使用。最近开始使用的 NeRF 模型已经有了一篇公开的论文,目前可供使用的软件只有两个:Instant NGP和Luma。目前这两个产品已经能够做到只需拍摄一个物体,即可立即生成3D模型。但它也有缺点,即在制作产品时未考虑兼容性。