SEED-Story是一个腾讯开源的基于大型语言模型(MLLM)的多模态长篇故事生成模型,它能够根据用户提供的图片和文本生成连贯的叙事文本和风格一致的图片。无论是小说创作、剧本编写还是视觉故事,SEED-Story都能提供高质量、多模态的内容,助力创意产业的发展。 SEED-Story的功能特点 基于大型语言模型(MLLM):SEED-Story利用先进的MLLM技术,能够从用户提供的图像和文本作为起点,生成包含丰富、连贯的叙事文本以及风格一致的图像的多模态长篇故事。 生成内容丰富:生成的故事不仅包含文字描述,还包含与文字内容相匹配、风格一致的图像,增强了故事的沉浸感和表现力。 保持一致性:在生成过程中,SEED-Story能够确保角色形象和故事风格的一致性,使得整个故事更加连贯和吸引人。 SEED-Story的技术原理 SEED-Story是一个基于大型语言模型(MLLM)的多模态长篇故事生成模型,其技术原理主要包括以下几个阶段: 1.预训练阶段: 在第一阶段,SEED-Story预训练了一个基于SD-XL的去标记化器(de-tokenizer)。该去标记化器通过接受预训练的视觉变换器(ViT)的特征作为输入来重建图片。 这一阶段的目标是使模型能够理解和生成高质量的视觉内容。 2.序列训练阶段: 在第二阶段,模型采样一个随机长度的交错图像-文本序列。通过对目标图像的ViT特征和可学习查询的输出隐藏状态之间的下一个词预测和图像特征回归来训练大型语言模型(MLLM)。 这一阶段的目标是使模型能够生成连贯的叙事文本,并在文本和图像之间建立关联。 3.调优阶段: 在第三阶段,从MLLM回归得到的图像特征被输入到去标记化器中,以调整SD-XL。 这一阶段的目标是增强生成图片中角色和风格的一致性,使生成的故事内容更加连贯和一致。 通过这三个阶段的训练和调优,SEED-Story能够生成丰富且连贯的叙事文本,并在角色和风格上保持一致的图片,适用于多模态长篇故事生成。 适用场景 小说创作:作家可以使用SEED-Story生成连贯的叙事文本和风格一致的插图,帮助他们快速构思和创作长篇小说。 剧本编写:编剧可以利用SEED-Story生成剧本内容和视觉元素,为电影、电视剧和舞台剧提供创意支持。 视觉故事:艺术家和设计师可以使用SEED-Story生成视觉故事,结合文本和图片,创造出引人入胜的多媒体作品。 教育和培训:教育工作者可以利用SEED-Story生成教育内容和教学材料,帮助学生更好地理解和学习复杂的概念。 广告和营销:营销人员可以使用SEED-Story生成创意广告和营销材料,吸引目标受众的注意力。 游戏开发:游戏开发者可以利用SEED-Story生成游戏剧情和视觉元素,提升游戏的故事性和沉浸感。
数据统计
相关导航
Lumiere是谷歌发布的一个文本到视频扩散模型,于2024年正式发布。这个模型能够直接生成全帧率、低分辨率视频,通过训练海量文本和视频数据,可以将文字描述直接转化为高质量、真实、多样且连贯动作的视频。适用于多种内容创作和视频编辑应用,如图像到视频、视频修复和风格化生成。
GPT智库
GPT 智库是一款强大的人工智能大模型综合应用,提供互联网境外访问绿色通道、汇聚了全球顶尖的人工智能大模型和学术资源。它具备智能对话、文生图、图生图、音频翻译、图像分析和全球学术资料搜索等多种功能,为科研院所、新闻媒体、高校和政府部门提供安全、合规、可控的全球一流人工智能服务。
GPT-4o mini
GPT-4o Mini 是 OpenAI 最新推出的小型智能模型,专为高性能和低成本的人工智能解决方案而设计。它支持文本、视觉、音频等多模态输入输出,响应速度极快,适用于实时应用场景。
EMO
EMO (Emote Portrait Alive) 是阿里巴巴集团智能计算研究院的研究团队开发的一个音频驱动型肖像视频生成框架。具体来说,EMO系统基于音频信号驱动来生成肖像视频。用户只需要提供一张参考图片和一段音频文件(例如说话、唱歌的声音),EMO就能够根据音频内容生成一个生动的视频,视频中的人物会展现出丰富的面部表情和多变的头部动作,仿佛照片中的人物正在唱你所制定的语言或歌曲。
MuseTalk
MuseTalk是由腾讯推出的一个实时的高质量音频驱动唇形同步模型,能够根据输入的音频信号自动调整数字人物的面部图像,使其唇形与音频内容高度同步,支持多种语言,并实现每秒30帧以上的实时处理速度。这意味着观众可以看到数字人物的口型与声音完美匹配的效果。
Aidge
Aidge基于阿里巴巴国际数字商业集团的大语言模型和多模态大模型,结合对全球商业的深度洞察,为客户提供全面的国际电商AI云服务。Aidge 聚焦商业场景,让客户的全球经营效果更好,成本更低。Aidge 作为国际电商领域专业前沿且经验丰富的AI服务提供方,拥有极强的多语言能力、本地化能力和营销设计能力,帮助企业客户降低语言和文化门槛,解决中小企业难以获得设计、营销、服务和人才等问题。
PixArt-Σ
PIXART-Σ是华为推出的图像生成模型,由华为诺亚方舟实验室、大连理工大学和香港大学的研究团队开发。采用Diffusion Transformer (DiT) 架构,专用于生成 4K 分辨率的 AI 图像。用户只需输入一段文字描述就能生成具有4K高分辨率的图像,相较于前身PixArt-α,它提供了更高的图像保真度和与文本提示更好的对齐。
可灵大模型
可灵大模型是快手AI团队自研的一款视频生成大模型,采用类似Sora的技术路线,能够生成符合物理规律的大幅度运动视频,模拟真实世界的特性。支持生成长达2分钟的30fps的超长视频,分辨率高达1080p,且支持多种宽高比。2024年6月,快手正式推出了可灵大模型,并在快影App开放邀测体验。
暂无评论...
