
PixelDance
PixelDance是由字节跳动开发的一款高动态视频生成模型,它能够根据用户提供的图片和文本描述来生成具有复杂场景和动态效果的视频。这项技术特别在于它结合了图像指令(针对视频片段的首尾帧)和文本指令,使得生成的视频不仅视觉上丰富,而且动作细节丰富,能够展现出高度的动态性。
Lumiere是谷歌发布的一个文本到视频扩散模型,于2024年正式发布。这个模型能够直接生成全帧率、低分辨率视频,通过训练海量文本和视频数据,可以将文字描述直接转化为高质量、真实、多样且连贯动作的视频。适用于多种内容创作和视频编辑应用,如图像到视频、视频修复和风格化生成。
Lumiere是谷歌发布的一个文本到视频扩散模型,于2024年正式发布。这个模型能够直接生成全帧率、低分辨率视频,通过训练海量文本和视频数据,可以将文字描述直接转化为高质量、真实、多样且连贯动作的视频。适用于多种内容创作和视频编辑应用,如图像到视频、视频修复和风格化生成。
Lumiere的时空扩散U-Net架构可以生成整个视频的所有时间段,提高动作连贯性和时间一致性。它采用Multidiffusion优化方法将视频序列分割成多个时间窗口,并在每个时间窗口内进行空间超分辨率计算,优化内存需求。这种模型在文本生成视频领域带来了革命性的变革,提高了生成视频的质量和动作连贯性,为视频生成领域带来更多可能性。
Lumiere官方生成视频效果演示:
https://img.pidoutv.com/wp-content/uploads/2024/05/1706085410-Lumiere-1.mp4