Goku是由香港大学与字节跳动联合研发的多模态视频生成模型,基于校正流 Transformer 架构(Rectified Flow Transformer),专为图像与视频的联合生成优化。该模型于 2025 年 2 月正式发布技术报告,其核心目标是通过低成本、高效率的生成能力,革新数字内容创作流程,尤其在广告营销、电商展示等领域展现出颠覆性潜力。 功能特点: 1.多模态生成能力: 文本到视频(Text-to-Video):通过自然语言描述直接生成动态视频,支持复杂场景与人物交互。例如,根据“夏日海滩饮品广告”生成包含人物动作和产品特写的完整短片。 图像到视频(Image-to-Video):以单张商品图或场景图为输入,生成动态展示视频。例如,将静态服装图转化为模特试穿效果的连贯镜头。 文本到图像(Text-to-Image):生成高分辨率图像,支持细节控制,如光照、材质等参数调整。 2.技术架构创新: 校正流框架:Goku 采用了校正流(Rectified Flow)Transformer,结合图像-视频联合 VAE(变分自编码器)以及全注意力 Transformer,使得模型能够统一处理图像和视频生成任务。通过优化生成路径的连续性,减少传统扩散模型的迭代步骤,提升生成效率。 多阶段训练策略:通过图文语义对齐预训练、图像-视频联合训练以及针对不同模态的微调,分阶段提升模型能力,初期聚焦基础特征学习,后期强化时序连贯性与细节精度。 大规模数据集支撑:研究人员构建了约 3600 万视频和 1.6 亿图像的大规模数据集,并采用多种数据过滤和增强技术来提高数据质量。 3.成本与性能优势: Goku+ 商业版本:作为视频广告专用基础模型,其生成成本仅为传统拍摄制作的 1/100,且支持个性化定制(如品牌 Logo 植入、多语言配音等)。 SOTA 性能:在 MSR-VTT 和 UCF-101 等基准测试中,文本到视频生成任务刷新行业记录,视频连贯性与语义对齐度领先同类模型 20% 以上。 使用方法: 第一步:模型选择与部署。提供三种规模模型:轻量版(移动端适配)、标准版(通用场景)、企业版(支持 4K 分辨率与长视频生成)。 支持云端 API 调用与本地化部署,企业用户可通过字节跳动火山引擎平台接入。 第二步:输入与参数配置。输入格式:文本提示需遵循结构化描述(如“主体-动作-场景-风格”),图像输入支持 PNG/JPG 及透明背景格式。 控制参数:包括视频时长(默认 5 秒,可扩展至 60 秒)、帧率(24/30/60fps)、分辨率(最高 4096×2160)及风格化滤镜(如“写实风”“卡通渲染”)。 第三步:交互式编辑。支持生成后逐帧微调,例如修改局部动作、替换背景元素,或通过文本指令追加特效(如“添加雨滴效果”)。 产品应用: 电商与广告营销: 商品动态展示:仅需一张产品图,即可生成包含虚拟主播讲解和多角度展示的广告视频,适用于淘宝、抖音等平台的商品详情页。 低成本本地化广告:针对不同地区市场,快速生成适配语言与文化背景的广告内容,显著降低跨国营销成本。 社交媒体内容创作: 吃播/教程视频生成:输入食材列表与步骤描述,自动生成烹饪过程视频,支持添加互动字幕与背景音乐。 UGC 辅助工具:为创作者提供“文案转视频”功能,将图文内容自动转化为短视频,提升内容产出效率。 影视与游戏预制作: 分镜预览:通过文本快速生成剧情分镜,辅助导演与编剧可视化叙事节奏。 NPC 动作库构建:为游戏开发提供批量角色动作生成,减少手动建模工作量。 Goku 的发布标志着 AI 视频生成从“辅助工具”向“生产级应用”的跨越。其低成本特性已吸引多家国际快消品牌进行试点合作,据估算可减少 80% 的广告制作周期。未来,结合实时渲染与 3D 建模技术,Goku 有望进一步拓展至虚拟现实、元宇宙等场景。当前技术局限主要体现为长视频的情节逻辑控制,但团队表示将通过引入强化学习机制持续优化。 GitHub:https://github.com/Saiyan-World/goku 项目地址:https://saiyan-world.github.io/goku/ 论文:https://arxiv.org/abs/2502.04896
数据统计
相关导航
M2UGen是一个由腾讯和新加坡国立大学共同研发的多模态音乐生成模型,它具备音乐生成、理解和编辑的能力。具体来说,M2UGen可以接收文字、图片、视频或音频作为输入,然后生成与之相匹配的音乐。例如,给它一段文字,如诗句或故事,它能够创作出与文字内容相应的音乐;对于图片,它能创作出匹配的音乐,让图片仿佛“动起来”;对于视频,它可以根据视频内容创作出合适的背景音乐。
光语大模型
光语大模型是无限光年公司推出的一款结合大语言模型与符号推理的 AI 大模型,融合视觉与语言处理技术,拥有 10 亿视觉模型参数和 130 亿语言模型参数。该模型在金融、医疗等垂直领域表现出色,通过灰盒可信技术确保输出的稳定性和可靠性,有效解决幻觉问题,提升推理精度和可信度。
Darwin
Darwin是一个开源项目,专注于自然科学领域的大型语言模型构建,主要涵盖物理、化学和材料科学。通过对科学文献和数据集进行预训练和微调,Darwin 在科学问答和多任务学习任务中表现优异。它结合了结构化和非结构化的科学知识,提升了语言模型在科学研究中的效能。
LTX Video
LTX Video是由 Lightricks公司推出的首个REAL-TIME AI视频生成开源模型。它基于 DiT (Diverse Image Transformer) 架构,能够实时生成高质量的视频。LTX Video 能够以 24 FPS 和 768x512 分辨率生成视频,生成速度比观看速度还要快。
UniVG
UniVG是百度推出的一种统一模态视频生成系统。它能够处理多种输入模态,如文本和图像,并生成与输入语义高度一致的视频。UniVG采用了多条件交叉注意力技术和偏置高斯噪声方法,以提高生成视频的质量和保留原始内容。
昇思MindSpore
昇思MindSpore是由华为自研的一种适用于端边云场景的全场景深度学习框架,MindSpore提供了友好的设计和高效的执行,旨在提升数据科学家和算法工程师的开发体验,并为Ascend AI处理器提供原生支持,以及软硬件协同优化。
Loopy AI
Loopy是一个端到端音频驱动的视频生成模型,专注于生成逼真的头像动画。利用先进的 AI 技术和时间模块设计,Loopy 能够从音频中提取自然的运动模式,并生成高质量的动画效果。支持多种视觉和音频风格,适用于虚拟主播、动画制作等应用场景。
云雀大模型
云雀大模型是字节跳动公司开发的一款大规模预训练语言模型。该模型采用 Transformer 架构,它能够处理多种自然语言处理任务,如聊天、绘画、写作和学习。云雀大模型利用了大量的数据进行训练,包括文本、图像、视频和音频等,以学习丰富的语言知识和语境信息。此外,它还具有视频内容理解能力,能够识别视频中的对象、场景和情感等关键要素,为多模态任务提供支持。
暂无评论...
