
Goku是由香港大学与字节跳动联合研发的多模态视频生成模型,基于校正流 Transformer 架构(Rectified Flow Transformer),专为图像与视频的联合生成优化。该模型于 2025 年 2 月正式发布技术报告,其核心目标是通过低成本、高效率的生成能力,革新数字内容创作流程,尤其在广告营销、电商展示等领域展现出颠覆性潜力。 功能特点: 1.多模态生成能力: 文本到视频(Text-to-Video):通过自然语言描述直接生成动态视频,支持复杂场景与人物交互。例如,根据“夏日海滩饮品广告”生成包含人物动作和产品特写的完整短片。 图像到视频(Image-to-Video):以单张商品图或场景图为输入,生成动态展示视频。例如,将静态服装图转化为模特试穿效果的连贯镜头。 文本到图像(Text-to-Image):生成高分辨率图像,支持细节控制,如光照、材质等参数调整。 2.技术架构创新: 校正流框架:Goku 采用了校正流(Rectified Flow)Transformer,结合图像-视频联合 VAE(变分自编码器)以及全注意力 Transformer,使得模型能够统一处理图像和视频生成任务。通过优化生成路径的连续性,减少传统扩散模型的迭代步骤,提升生成效率。 多阶段训练策略:通过图文语义对齐预训练、图像-视频联合训练以及针对不同模态的微调,分阶段提升模型能力,初期聚焦基础特征学习,后期强化时序连贯性与细节精度。 大规模数据集支撑:研究人员构建了约 3600 万视频和 1.6 亿图像的大规模数据集,并采用多种数据过滤和增强技术来提高数据质量。 3.成本与性能优势: Goku+ 商业版本:作为视频广告专用基础模型,其生成成本仅为传统拍摄制作的 1/100,且支持个性化定制(如品牌 Logo 植入、多语言配音等)。 SOTA 性能:在 MSR-VTT 和 UCF-101 等基准测试中,文本到视频生成任务刷新行业记录,视频连贯性与语义对齐度领先同类模型 20% 以上。 使用方法: 第一步:模型选择与部署。提供三种规模模型:轻量版(移动端适配)、标准版(通用场景)、企业版(支持 4K 分辨率与长视频生成)。 支持云端 API 调用与本地化部署,企业用户可通过字节跳动火山引擎平台接入。 第二步:输入与参数配置。输入格式:文本提示需遵循结构化描述(如“主体-动作-场景-风格”),图像输入支持 PNG/JPG 及透明背景格式。 控制参数:包括视频时长(默认 5 秒,可扩展至 60 秒)、帧率(24/30/60fps)、分辨率(最高 4096×2160)及风格化滤镜(如“写实风”“卡通渲染”)。 第三步:交互式编辑。支持生成后逐帧微调,例如修改局部动作、替换背景元素,或通过文本指令追加特效(如“添加雨滴效果”)。 产品应用: 电商与广告营销: 商品动态展示:仅需一张产品图,即可生成包含虚拟主播讲解和多角度展示的广告视频,适用于淘宝、抖音等平台的商品详情页。 低成本本地化广告:针对不同地区市场,快速生成适配语言与文化背景的广告内容,显著降低跨国营销成本。 社交媒体内容创作: 吃播/教程视频生成:输入食材列表与步骤描述,自动生成烹饪过程视频,支持添加互动字幕与背景音乐。 UGC 辅助工具:为创作者提供“文案转视频”功能,将图文内容自动转化为短视频,提升内容产出效率。 影视与游戏预制作: 分镜预览:通过文本快速生成剧情分镜,辅助导演与编剧可视化叙事节奏。 NPC 动作库构建:为游戏开发提供批量角色动作生成,减少手动建模工作量。 Goku 的发布标志着 AI 视频生成从“辅助工具”向“生产级应用”的跨越。其低成本特性已吸引多家国际快消品牌进行试点合作,据估算可减少 80% 的广告制作周期。未来,结合实时渲染与 3D 建模技术,Goku 有望进一步拓展至虚拟现实、元宇宙等场景。当前技术局限主要体现为长视频的情节逻辑控制,但团队表示将通过引入强化学习机制持续优化。 GitHub:https://github.com/Saiyan-World/goku 项目地址:https://saiyan-world.github.io/goku/ 论文:https://arxiv.org/abs/2502.04896
数据统计
相关导航

LTX Video是由 Lightricks公司推出的首个REAL-TIME AI视频生成开源模型。它基于 DiT (Diverse Image Transformer) 架构,能够实时生成高质量的视频。LTX Video 能够以 24 FPS 和 768x512 分辨率生成视频,生成速度比观看速度还要快。

FunAudioLLM
FunAudioLLM 是由阿里巴巴通义团队开发的旨在增强人类与大型语言模型(LLMs)之间的自然语音交互的框架。其核心包括两个创新模型:SenseVoice 和 CosyVoice。SenseVoice 提供高精度的多语言语音识别、情绪识别和音频事件检测,支持超过 50 种语言,并具有极低的延迟。CosyVoice 则专注于自然语音生成,支持多语言、音色和情绪控制,能够进行零样本语音生成、跨语言语音克隆和指令遵循。

Tora
Tora 是阿里团队推出的一个视频生成模型,能够根据轨迹、图像、文本或其组合,快速生成精确运动控制的视频。它支持多种输入方式,如轨迹、文本和图像,并能生成高分辨率、运动可控的视频。

孟子生成式大模型
孟子生成式大模型(孟子 GPT)是由澜舟科技研发的一款功能强大的生成式可控大语言模型。它能够通过多轮对话,帮助用户在特定场景中完成各种工作任务,包括内容生成、语言理解、知识问答、推理、代码理解和生成、金融任务等。

讯飞星火大模型
讯飞星火大模型是科大讯飞发布的一个基于深度学习的自然语言处理模型,以中文为核心,具备跨领域多任务上的类人理解和生成能力。注册免费领取1500万Tokens,该模型对标ChatGPT,并在多个领域表现出色。

ReSyncer
ReSyncer 是由清华大学、百度和南洋理工大学 S-Lab 实验室联合开发的多功能 AI 框架,专注于视频合成技术。它能够生成与音频高度同步的逼真口型视频,支持个性化调整、视频驱动口型同步、说话风格迁移和人脸交换。ReSyncer 在创建虚拟主持人、电影配音和多语言内容制作等领域具有广泛应用前景。

Auto-GPT
Auto-GPT 是一个使用 GPT-4 语言模型来自动执行多步骤项目的开源应用程序。它可以让 GPT-4 自主行动,根据自然语言的目标,自动地分解成子任务,并利用互联网和其他工具来实现它,而无需人工提示。

Face Adapter
Face Adapter 是一种专门为预训练的扩散模型设计的适配器,主要用于面部重演和面部交换任务。它能够实现高精度和高保真度的面部编辑,提供精细的个体识别和属性控制功能。
暂无评论...