快点用AIGC(人工智能创作)来拍电影吧

快点用AIGC(人工智能创作)来拍电影吧

首页休闲益智拍电影吧更新时间:2024-05-11

我从2016年参加杭州动漫节,在白马湖边上第一次看到《深海》路演的样片,到去年《深海》上映,然后到这两天我从电视里看完了《深海》这部影片,不仅感叹电影这个行业制作周期之长,投入之多,以及如此多的不可控因素,于是就想着能否用AIGC来改变一下,抽空做了几天的实验,把想法和实验结果写了以下这篇文章。

随着ChatGPT以及AI绘图的火爆,人工智能已逐渐渗透到各个行业。作为一名资深的影视动画制作人,同时又是AIGC赛道的创业者,我深知影视行业作为重要的文化载体,其制作流程对于作品的质量至关重要。因此,我最近在进行关于人工智能是否能够改变影视行业制作流程的思考,以期在提升作品质量的同时,降低制作成本和时间成本。

传统影视行业的制作流程大致可以分为四个阶段:前期制作、拍摄制作、后期制作和发行。在前期制作中,创作团队需完成剧本创作、选角、场景设计等工作;拍摄制作阶段则主要涉及摄影、导演、演员等人员的协同合作;后期制作阶段主要包括剪辑、特效制作、音效处理等工作;最后是发行阶段,涉及影片的宣传和发行工作。

传统影视制作流程的一个主要问题在于,团队在制作过程中很难快速看到成品效果。在很多情况下,创作团队需要在没有明确指导依据的情况下进行尝试。这导致制作过程中容易出现资源浪费,例如重拍、修改剧本,推翻策划案等等。而且,传统制作流程中的各个环节都需要大量人力、物力和财力投入,这使得不停反复修改的过程占据了大量的制作成本。

人工智能技术的优越性在于其可以实现快速预览成品效果。通过运用人工智能技术,创作团队可以在制作过程中直接看到最终效果,从而更精确地调整和优化制作过程。此外,人工智能还可以在选角、剧本创作、特效制作等方面发挥作用,提高效率并降低成本。

以现有的人工智能技术为例,我可以跳过前面的所有步骤,直接在Midjourney里画出我心目中的电影画面,并且用Stable Diffusion 中的loRA模型训练电影角色,将其脸部特征换到Midjourney生成的电影画面中去,然后通过类似Mocking Bird的语音模仿技术来生成角色念对白的效果。

通过这样的技术整合,我初略估算了一下,大概可以用一个10人以内的AIGC团队,在一个月内就能完成一部90分钟电影的大纲式预览,并且成片画面质量可以达到佳作水平。

那么,是否可以这样倒推,从故事直接到电影成片大纲,然后反复修改成片大纲到达一个满意的阶段,接着再倒过来进行制作,如果这种生产流程,那么仔细地一个个推导过去,许多传统流程中的内耗,等待,浪费都可以避免,或者减少一些。

影片如果需要加上实验镜头就更好了,比如RunwayML Gen1已经开放使用,里面的做普通效果其实也就那样,但实验性的视觉效果确实很强,并且效率非常高。 再加上其他基于深度学习的视频剪辑、计算机视觉技术的特效制作等,一层层在新的流程中加码,精简掉原来影视制作中众多的冗余部分,得到更多的时间可以真正去探讨和修改内容。

总结来说,人工智能技术有潜力改变影视行业的制作流程,提高作品质量,并降低制作成本。通过应用人工智能技术,创作团队可以更有效地预览成品效果,避免资源浪费,从而实现更高效的制作流程。不过,值得注意的是,人工智能只是我们的工具,影视行业能否打动人的根本还是创造力和直觉。在影视制作过程中,人类对故事情感、表演以及审美的把握仍然是至关重要的。

一个电影筹划两年,制作两年,宣发一年,投资几个亿,然后进入院线,接着因为内容不优秀而未能取得成功的案例实在太多了。我们到底能不能用AIGC缩短这个进程,让更多的好内容可以通过较少的资源进入到大众视野,让整个行业真正的是为内容服务,而不是为资源服务。

我觉得是有可能的,而且现在就有可能。

(本文中的配图绝大部分都是由我使用Midjourney和Stable Diffusion 配合制作而成。)

查看全文
大家还看了
也许喜欢
更多游戏

Copyright © 2024 妖气游戏网 www.17u1u.com All Rights Reserved