JoyGen是由京东科技与香港大学合作开发的音频驱动 3D 说话人脸视频生成框架,采用一种新颖的两阶段框架。该技术通过音频输入驱动 3D 深度感知模型,实现精确的唇部与音频同步,以逼真模拟说话者的唇部动作和面部表情,生成高度真实的视频内容。JoyGen 主要应用于视频编辑和虚拟交互领域。 技术特点: 音频驱动唇部运动生成: JoyGen 使用 3D 重建模型和 audio2motion 模型,分别预测身份和表情系数,通过将音频特征与面部深度图结合,实现精确的唇部与音频同步。 视觉外观合成: 提供高质量的视觉外观合成,确保视频的视觉效果和唇部运动的自然性。 数据集支持: JoyGen 使用了一个包含 130 小时高质量视频的中文说话人脸数据集进行训练。该数据集与开放的 HDTF(高分辨率深度图数据集)结合,支持中文和英文输入。 情感表达: JoyGen 还考虑了音频的情绪特征,能够在生成的动画中自然地表现出人物的情感变化,例如微笑或皱眉等,使生成的视频更加生动和真实。 如何使用JoyGen: 环境搭建:用户需创建一个特定的conda环境,并安装必要的依赖包,包括Nvdiffrast等特定库。 预训练模型下载:获取JoyGen的预训练模型,包括3D模型、音频到运动模型等,这些资源通常在项目GitHub页面上提供。 运行推理:通过执行特定的脚本和参数,用户可以将音频文件转换为带有逼真唇部同步的3D说话人脸视频。 应用场景: 视频编辑:用于编辑和生成高质量的说话人脸视频,适用于各种视频制作和编辑需求。 虚拟主播:为虚拟主播提供精确的嘴唇同步和自然的面部表情。 教育和培训:用于制作教育视频和培训资料,提升视频内容的互动性和生动性。 通过这些功能,JoyGen 在说话人脸视频生成和编辑方面展现了强大的能力。 GitHub:https://github.com/JOY-MM/JoyGen JoyGen – 音频驱动的3D深度感知说话人脸视频生成框架
数据统计
相关导航
序列猴子是出门问问自研的一款大语言模型,它以语言为核心的能力体系涵盖了知识、对话、数学、逻辑、推理和规划等六个维度。它可以同时支持文字生成、图片生成、3D内容生成、语音生成和语音识别等不同任务,展现出强大的多模态表达能力。
SeamlessM4T
SeamlessM4T是Meta推出的一款多语言和多任务模型,能够处理语音识别、文本翻译和语音合成等任务。它支持近100种语言,可以将语音转录为文本,再进行翻译,甚至可以将翻译后的文本转化为语音。
智谱清流
智谱清流是智谱AI推出的企业级AI智能体开发平台,旨在帮助企业快速构建和部署AI应用,实现业务流程的智能化升级。该平台基于智谱全模型矩阵和先进的大模型技术(如GLM系列),提供了一整套工具和服务,支持多种集成方式,满足不同企业的智能化需求。
Cherry Studio
Cherry Studio 是一个支持多模型服务的AI桌面客户端,支持 Windows、macOS 和 Linux,未来还将支持移动端。用户可以通过Cherry Studio无缝集成多种大型语言模型 (LLM),包括 OpenAI、Anthropic 和 Gemini 等,甚至本地部署的模型,确保数据隐私和安全。
Magi
Magi 的模型是一个可以自动将漫画页转录成文字并生成剧本。该模型通过识别漫画页面上的面板、文字块和角色,实现了全自动的剧本生成功能。
书生通用大模型
书生通用大模型是由上海人工智能实验室发布的大型预训练模型。它包括多个基础模型,如书生·多模态、书生·浦语和书生·天际等。这些模型旨在支持科研创新和产业应用,提供一个全链条开源的研发与应用平台。
Aiuni AI
Aiuni AI 是一款基于 Unique3D 开源技术的在线 AI 图片转 3D 模型生成建模工具,它能够在 30 秒内将单张图片转换为高质量的 3D 模型。用户通过简单的图片上传和点击生成,用户即可获得 360 度无死角的 3D 模型,确保每个角度都具有一致性和高质量的细节。
M2UGen
M2UGen是一个由腾讯和新加坡国立大学共同研发的多模态音乐生成模型,它具备音乐生成、理解和编辑的能力。具体来说,M2UGen可以接收文字、图片、视频或音频作为输入,然后生成与之相匹配的音乐。例如,给它一段文字,如诗句或故事,它能够创作出与文字内容相应的音乐;对于图片,它能创作出匹配的音乐,让图片仿佛“动起来”;对于视频,它可以根据视频内容创作出合适的背景音乐。
暂无评论...
