腾讯混元3D,全称为Hunyuan3D-1.0,是腾讯推出的首个同时支持文生和图生的3D开源模型,专门解决现有3D生成模型在生成速度和泛化能力方面的不足。该模型采用了基于Diffusion 技术的架构,能够同时支持文本生成和图像生成3D资产。 腾讯混元3D:首个同时支持文生和图生的3D开源模型 技术特点与创新 快速生成:轻量版模型能够在 10 秒内生成高质量的 3D 资产,支持快速单图生成 3D,包括 mesh 和 texture 提取。 两阶段生成方法:采用多视图生成和多视图重建的两步流程。首先通过多视角扩散模型合成多个不同视角的新图像,然后使用基于 Transformer 的稀疏视角大规模重建模型生成 3D 资产。 自适应 CFG 技术:在多视图生成阶段,通过调整不同视角和时间步的 classifier-free guidance(CFG)尺度值,确保生成的图像既接近输入又具有多样性。 开源全面性:模型权重、推理代码、算法等全部开放,提供轻量版和标准版,极大降低了 3D 内容创作的门槛。 强大的泛化能力:能够重建各类尺度的物体,大到建筑,小到工具花草,适应多种创作需求。 性能与应用 超越 SOTA:在定性和定量评估中,Hunyuan3D-1.0 的表现超越了其他开源模型,尤其在生成速度和泛化能力方面。 应用广泛:已应用于腾讯的多个业务场景,如腾讯地图的 3D 车标重建和自定义 3D 导航车标功能等,显著提升了效率和创作自由。 行业影响:为游戏开发、影视制作、虚拟现实(VR)等领域提供了强大的工具,促进了 AI 生成 3D 内容的创新和应用。 应用场景 游戏开发:生成高质量的游戏角色、道具和建筑等 3D 资产,大幅提升游戏开发效率。 影视动画:为创作者自动生成 3D 影视角色及动作效果,辅助完成动画创作。 电商广告:根据广告创意主题生成 3D 商品,实现互动特效,提升广告内容创意。 虚拟现实(VR)/增强现实(AR):生成逼真的 3D 虚拟环境元素及互动内容,增强沉浸式体验。 开源信息 腾讯混元3D 生成大模型 Hunyuan3D-1.0 已于 11 月 5 日正式开源。该模型是业界首个同时支持文字、图像生成 3D 的开源大模型,提供轻量版和标准版两种选择,为开发者提供更多的创作机会。 Github 项目 Hugging Face
数据统计
相关导航
CogVideo是目前最大的通用领域文本到视频生成预训练模型,含94亿参数。CogVideo将预训练文本到图像生成模型(CogView2)有效地利用到文本到视频生成模型,并使用了多帧率分层训练策略。用于文本到视频的生成。它是基于Transformer架构的,旨在通过理解和转换文本描述来生成相应的视频内容。CogVideo能够处理大量的文本-视频对数据,并通过学习这些数据的模式来生成与文本描述相匹配的视频。
悟道大模型
悟道大模型是由北京智源人工智能研究院发起的超大规模预训练模型研究项目,不仅具备强大的语言理解和生成能力,还能进行逻辑推理、代码分析、图像生成等多种任务,支持多种类型的文本内容生成,如小说、歌词、诗歌、对联等。
腾讯混元大模型
腾讯混元大模型,这是一款由腾讯全方位自研的大型通用语言模型,拥有强悍的参数规模超过千亿级别,预训练语料库超过2万亿tokens。其独步全球的中文理解与创作能力,以及出色的逻辑推理能力和稳定的任务执行能力,都令人震撼。
光语大模型
光语大模型是无限光年公司推出的一款结合大语言模型与符号推理的 AI 大模型,融合视觉与语言处理技术,拥有 10 亿视觉模型参数和 130 亿语言模型参数。该模型在金融、医疗等垂直领域表现出色,通过灰盒可信技术确保输出的稳定性和可靠性,有效解决幻觉问题,提升推理精度和可信度。
UniVG
UniVG是百度推出的一种统一模态视频生成系统。它能够处理多种输入模态,如文本和图像,并生成与输入语义高度一致的视频。UniVG采用了多条件交叉注意力技术和偏置高斯噪声方法,以提高生成视频的质量和保留原始内容。
Goku
Goku 是一个基于流生成的视频生成基础模型,由香港大学和字节跳动研究团队共同开发。Goku 模型主要用于生成高质量的视频内容,尤其在广告和营销场景中表现尤为出色。
紫东太初
紫东太初大模型是中国科学院自动化研究所和武汉人工智能研究院推出的新一代大模型。它从三模态走向全模态,支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务。这个大模型具备更强的认知、理解、创作能力,为用户带来全新的互动体验。
Phantom
Phantom是由字节跳动推出的一款创新视频生成框架,专注于主体一致性的视频生成任务(Subject-to-Video, S2V)。它通过跨模态对齐技术,将文本和图像提示结合起来,从参考图像中提取主体元素,并生成与文本描述一致的视频内容。
暂无评论...
