
JoyGen是由京东科技与香港大学合作开发的音频驱动 3D 说话人脸视频生成框架,采用一种新颖的两阶段框架。该技术通过音频输入驱动 3D 深度感知模型,实现精确的唇部与音频同步,以逼真模拟说话者的唇部动作和面部表情,生成高度真实的视频内容。JoyGen 主要应用于视频编辑和虚拟交互领域。 技术特点: 音频驱动唇部运动生成: JoyGen 使用 3D 重建模型和 audio2motion 模型,分别预测身份和表情系数,通过将音频特征与面部深度图结合,实现精确的唇部与音频同步。 视觉外观合成: 提供高质量的视觉外观合成,确保视频的视觉效果和唇部运动的自然性。 数据集支持: JoyGen 使用了一个包含 130 小时高质量视频的中文说话人脸数据集进行训练。该数据集与开放的 HDTF(高分辨率深度图数据集)结合,支持中文和英文输入。 情感表达: JoyGen 还考虑了音频的情绪特征,能够在生成的动画中自然地表现出人物的情感变化,例如微笑或皱眉等,使生成的视频更加生动和真实。 如何使用JoyGen: 环境搭建:用户需创建一个特定的conda环境,并安装必要的依赖包,包括Nvdiffrast等特定库。 预训练模型下载:获取JoyGen的预训练模型,包括3D模型、音频到运动模型等,这些资源通常在项目GitHub页面上提供。 运行推理:通过执行特定的脚本和参数,用户可以将音频文件转换为带有逼真唇部同步的3D说话人脸视频。 应用场景: 视频编辑:用于编辑和生成高质量的说话人脸视频,适用于各种视频制作和编辑需求。 虚拟主播:为虚拟主播提供精确的嘴唇同步和自然的面部表情。 教育和培训:用于制作教育视频和培训资料,提升视频内容的互动性和生动性。 通过这些功能,JoyGen 在说话人脸视频生成和编辑方面展现了强大的能力。 GitHub:https://github.com/JOY-MM/JoyGen JoyGen – 音频驱动的3D深度感知说话人脸视频生成框架
数据统计
相关导航

殷契文渊是一个甲骨文AI协同平台,它提供了丰富的甲骨文资料库,包括图片、释文、研究论文等。利用人工智能技术,帮助用户更高效地进行甲骨文的自动识别和解读。

Phantom
Phantom是由字节跳动推出的一款创新视频生成框架,专注于主体一致性的视频生成任务(Subject-to-Video, S2V)。它通过跨模态对齐技术,将文本和图像提示结合起来,从参考图像中提取主体元素,并生成与文本描述一致的视频内容。

SDXL-Lightning
SDXL-Lightning是一款由字节跳动开发的开源免费的文生图开放模型,能根据文本快速生成相应的高分辨率图像。该模型能够在极短的时间内生成高质量和高分辨率的图像,是目前最快的文生图模型之一。

光语金帆
光语金帆 是由无限光年公司推出的金融大模型,结合了顶尖的人工智能技术和人才资源,旨在构建超越客户期望的人工智能生成内容(AIGC)产品组合,推动金融行业生产力和用户交互体验的全面提升,实现金融服务的智能化、公平化和普惠化。

阿里云百炼
阿里云百炼是基于通义大模型、行业大模型以及三方大模型的一站式大模型开发平台。面向企业客户和个人开发者,提供完整的模型服务工具和全链路应用开发套件,预置丰富的能力插件,提供API及SDK等便捷的集成方式,高效完成大模型应用构建。

Lumiere
Lumiere是谷歌发布的一个文本到视频扩散模型,于2024年正式发布。这个模型能够直接生成全帧率、低分辨率视频,通过训练海量文本和视频数据,可以将文字描述直接转化为高质量、真实、多样且连贯动作的视频。适用于多种内容创作和视频编辑应用,如图像到视频、视频修复和风格化生成。

GPT-4
GPT-4是OpenAI开发的最新一代大型语言模型。它能够接受文本和图像输入,生成类似人类的文本输出。它还能处理长达2.5万字的内容,是ChatGPT的8倍以上,使其在生成文本、延伸对话或分析文件方面更加强大。GPT-4还具备分析图像的能力,能够识别图片中的元素并生成相关的文本。

Animate Anyone
DreaMoving是一种基于扩散模型打造的可控视频生成框架,通过图文就能制作高质量人类跳舞视频。用户只需上传一张人像,以及一段提示词,就能生成对应的视频,而且改变提示词,生成的人物的背景和身上的衣服也会跟着变化。简单来说就是,一张图、一句话就能让任何人或角色在任何场景里跳舞。
暂无评论...