大家好,我是IT工具人——阿飞,一个热爱分享好玩AI工具的公众号。
文末有彩蛋。
AI大模型最近又发生了不少事,主要还是AI生成视频的质量又又又提升了,快手的可灵是火得一塌糊涂。
今天部署的这个开源AI大模型,也是快手的,是LivePortrait。它可以控制生成人物表情,模仿原视频人物表情,把一张图片生成一个逼真的视频。
如果无法想象生成的结果,可以拉到最后看生成效果吧。
接下来开始今天的教程了,这个部署还是蛮简单的,跟着我一步一步走,不会错。
安装之前先安装conda,这个在前面教程有提到过,如果不懂的,可以留言。
1、下载LivePorttrait。进入存储的目录,然后在cmd中执行以下命令就行。
git clone https://github.com/KwaiVGI/LivePortrait2、创建并进入虚拟环境。进入LivePortrait目录,然后conda create创建虚拟环境,再执行activate LivePortrait就可以了。(conda原来是conda activate LivePortrait进入虚拟环境,最近版本发生了变化
)。
3、下载模型,官方有给了百度云的下载地址。也可以在公众号后台回复关键词:708。
然后要把下载的目录文件拷贝到LivePortrait\pretrained_weights,参考下图。
4、运行。运行的命令如下,-s是图片的路径,-d是原视频的路径。这里如果生成报错了,很可能是视频的比例不符合,可以用1:1测试。
python inference.py -s assets/examples/source/s9.jpg -d assets/examples/driving/d0.mp4
看看我的生成视频。
最后,我用命令行测完之后,感觉还不错,正在感叹要是有界面就好了,没想到确实是有,执行python app.py,然后会给出两个URL地址,一个是本地,一个是公网的。(这是彩蛋)。
我在部署的时候有遇到一个报错,不过我相信正常安装应该是不会遇到,如果有遇到问题欢迎加入视频创作群,加微信的时候备注“不发广告
”。要打造一个健康的交流环境
开源大模型github地址:https://github.com/KwaiVGI/LivePortrait