腾讯混元生图

腾讯混元生图

腾讯混元生图是腾讯推出的业内首个集多轮图文多模态对话和工具化编辑图像为一体的AI生图产品。它不仅可以通过自然语言和图像输入,实现文本到图像、图像到文本的生成能力,同时支持多轮对话,并且支持通过唤起精调面板,进一步编辑生成好的图像,使用户能够精准控制生成的内容,为创作、设计、故事生成等场景提供强大而灵活的工具。
0190
云雀大模型

云雀大模型

云雀大模型是字节跳动公司开发的一款大规模预训练语言模型。该模型采用 Transformer 架构,它能够处理多种自然语言处理任务,如聊天、绘画、写作和学习。云雀大模型利用了大量的数据进行训练,包括文本、图像、视频和音频等,以学习丰富的语言知识和语境信息。此外,它还具有视频内容理解能力,能够识别视频中的对象、场景和情感等关键要素,为多模态任务提供支持。
0320
知海图AI

知海图AI

知海图AI是知乎与面壁智能合作开发的中文大模型,于2023年4月13日开始内测。它的主要功能是对知乎热榜上的问题回答进行要素抽取、观点梳理和内容聚合,以便用户能够更快、更全面地了解知友们讨论的热点与焦点。知海图AI在特定场景中的表现与GPT-4相当,显示出强大的语言理解和内容总结能力。此外,知海图AI的发布也标志着知乎在大语言模型领域的进一步布局,旨在赋能创作者、讨论场、信息获取等多个业务场景。
0180
Aidge

Aidge

Aidge基于阿里巴巴国际数字商业集团的大语言模型和多模态大模型,结合对全球商业的深度洞察,为客户提供全面的国际电商AI云服务。Aidge 聚焦商业场景,让客户的全球经营效果更好,成本更低。Aidge 作为国际电商领域专业前沿且经验丰富的AI服务提供方,拥有极强的多语言能力、本地化能力和营销设计能力,帮助企业客户降低语言和文化门槛,解决中小企业难以获得设计、营销、服务和人才等问题。
0150
Imagen 3

Imagen 3

Imagen 3是Google DeepMind开发的最新文生图大模型。它能够根据文本提示生成高质量、高分辨率的图像,具有更好的细节和丰富的光照效果。这个模型支持多种视觉风格,从照片般逼真到油画质感,甚至黏土动画场景。Imagen 3还改进了对自然语言提示的理解,简化了生成所需图像的过程,并采用了最新的安全和责任技术,包括隐私保护和内容安全。
0150
Segment Anything

Segment Anything

Segment Anything是一个基于深度学习的图像分割模型,它可以根据用户的输入提示(如点或框)生成高质量的物体遮罩。它可以用于为图像中的任何物体生成遮罩,无论是常见的物体(如人、车、猫等),还是罕见的物体(如火箭、恐龙、魔法棒等)。它的特点是具有强大的零样本性能,即它可以在没有见过的类别上进行分割,而不需要额外的训练数据。它的另一个优点是具有快速的推理速度,即它可以在几秒钟内处理一张图像,而不需要显卡或云计算资源。
0180
华知大模型

华知大模型

华知大模型是由同方知网与华为合作开发的中华知识大模型。它是一个专注于知识服务与科研行业的全栈自主可控的大模型,旨在覆盖政企文教等多个行业场景,并提供30多项通用能力体系。华知大模型的核心特色能力包括智能写作、学术搜问、AI伴读、标准智能问答、机构业务知识智能问答以及图书馆读者智能服务系统等。
0210
HoloDreamer

HoloDreamer

HoloDreamer是一款文本驱动的3D场景生成框架,通过用户的文本描述生成沉浸式且视角一致的完整3D场景。它由风格化全景生成和增强型全景重建两个核心模块组成,该框架首先生成高清晰度的全景图作为完整3D场景的整体初始化,然后利用3D高斯散射(3D-GS)技术快速重建3D场景,从而实现视角一致和完全封闭的3D场景生成。HoloDreamer在虚拟现实、游戏和影视行业中有广泛应用,为这些领域提供了新的解决方案。
0170
RAGFlow

RAGFlow

RAGFlow是一款开源的检索增强生成(RAG)引擎,专为深入理解文档而设计。它为各类企业和个人提供简洁高效的RAG工作流程,与大语言模型(LLM)相结合,针对各种复杂格式的数据提供可靠的问答及有依据的引用。RAGFlow非常适合需要动态内容生成且依赖外部知识库的场景,如智能客服、文档生成和数据分析等,助力用户高效挖掘大量数据中的有价值信息。
0170
Yi大模型

Yi大模型

Yi大模型是由李开复博士领导的AI公司“零一万物”发布的一款开源的中英双语预训练大模型。这个模型在多个性能指标上取得了国际最佳性能认可,被称为“全球最强开源模型”。Yi-34B模型特别之处在于它拥有全球最长的200K上下文窗口,能够处理40万汉字的超长文本输入,这在语言模型中是非常重要的,因为它对于理解和生成与特定上下文相关的文本至关重要。
0110
LMArena AI

LMArena AI

LMArena AI 是一个专注于众包 AI 基准测试的开放平台,由加州大学伯克利分校 SkyLab 和 LMSYS 研究团队打造。用户可以在平台上免费与 AI 聊天并进行投票,比较和测试不同的 AI 聊天机器人。LMArena AI 提供盲测模式、匿名对战、投票系统和风格控制等功能,确保评估的公平性和客观性。平台还支持多模态功能,允许用户通过图像与 AI 互动。通过 LMArena AI,用户可以了解和体验不同 AI 模型的性能,帮助他们选择合适的工具或服务。
0340
Video-LLaVA

Video-LLaVA

Video-LLaVA是由北京大学ChatLaw课题组开发的一款视频问答模型。它基于Transformer架构,能够处理视频和问题,通过自注意力机制来捕捉二者之间的关联信息,并可以回答有关其内容的问题,它准确地描述了这些媒体中的视觉效果。这个模型通过在大量视频数据上进行预训练,使得它能够理解丰富的视频特征和问题语义,进而在视频问答任务上取得了先进的性能,该技术还可用于标记图像和视频。
0240
火山方舟大模型

火山方舟大模型

火山方舟是一个由火山引擎推出的大模型服务平台,面向企业提供模型精调、评测、推理等全方位的平台服务。集成了国内多个优秀的大模型,如 MiniMax、智谱 AI、复旦 MOSS 等,覆盖了自然语言处理、计算机视觉、语音识别等多个领域。火山方舟旨在为大模型的开发、应用、运营提供一站式的解决方案,降低大模型使用的门槛,推动大模型的产业化和普及。
0140
Monica bots

Monica bots

Monica Bots是一款基于先进AI模型(如 GPT-4、Claude、Gemini 等)的多功能AI助手,能助力用户快速创建和部署智能助手(Bots)的平台,Monica Bots支持跨平台使用,包括浏览器插件(Chrome、Edge、Safari)、桌面端(Windows、macOS)和移动端(iOS、Android)。它集成了聊天、写作、翻译、数据分析、AI 绘图等多项功能,让即使没有技术背景的人也能轻松上手构建和管理自己的AI应用,满足各种场景需求。
0210
DreamTalk

DreamTalk

DreamTalk 是一个基于扩散的、以音频驱动的表达性说话头部生成框架,能够跨多种说话风格生成高质量的说话头部视频,由清华大学、阿里巴巴和华中科大共同开发。它的主要功能是通过人工智能技术让人物头像能够说话、唱歌,并保持嘴唇的同步以及模仿表情变化。这一框架能够生成高质量的动画,使人物脸部动作看起来非常真实,不仅嘴唇动作逼真,还能展现丰富的表情,使得动画更加生动。
0230
千影QianYing

千影QianYing

千影 QianYing 是一款由巨人网络 AI Lab 推出的有声游戏生成大模型,包含游戏视频生成大模型 YingGame 和视频配音大模型 YingSound。通过先进的人工智能技术,千影 QianYing 能够自动生成高质量、有声的游戏视频。YingGame 通过自定义角色、动作控制和物理模拟,创造互动性强的游戏内容;YingSound 则为视频添加高保真音效,实现精确的跨模态对齐和时间同步。
0170
EMO

EMO

EMO (Emote Portrait Alive) 是阿里巴巴集团智能计算研究院的研究团队开发的一个音频驱动型肖像视频生成框架。具体来说,EMO系统基于音频信号驱动来生成肖像视频。用户只需要提供一张参考图片和一段音频文件(例如说话、唱歌的声音),EMO就能够根据音频内容生成一个生动的视频,视频中的人物会展现出丰富的面部表情和多变的头部动作,仿佛照片中的人物正在唱你所制定的语言或歌曲。
0180
HelloMeme

HelloMeme

HelloMeme 是一个专注于生成高保真图像和视频内容的 AI 项目,特别是表情克隆技术。通过采用最新的 SD1.5 架构和空间编织注意力扩散模型,HelloMeme 可以轻松将一张图片的表情迁移到另一张图片或视频上,生成效果超越同类工具如 Liveportrait。HelloMeme 支持 ComfyUI 界面操作,非常适用于 AI 数字人、表情包制作和照片复活等领域,带来更自然细腻的表情效果。
0100
沃研Turbo大模型

沃研Turbo大模型

沃研Turbo是由沃恩智慧公司专为大学生打造的科研大模型。它集成了多项科研辅助功能,包括期刊推荐、文献摘要、论文精读、翻译润色、创新点评估、个性化论文推荐和AI降重。通过多模态AIGC技术,沃研Turbo能够快速响应科研需求,提升科研效率。用户只需在网页上上传论文、文本或链接,即可享受便捷的科研辅助服务。沃研Turbo致力于简化科研过程,帮助大学生在学术道路上取得更大成就。
0110
M2UGen

M2UGen

M2UGen是一个由腾讯和新加坡国立大学共同研发的多模态音乐生成模型,它具备音乐生成、理解和编辑的能力。具体来说,M2UGen可以接收文字、图片、视频或音频作为输入,然后生成与之相匹配的音乐。例如,给它一段文字,如诗句或故事,它能够创作出与文字内容相应的音乐;对于图片,它能创作出匹配的音乐,让图片仿佛“动起来”;对于视频,它可以根据视频内容创作出合适的背景音乐。
0130
Boximator

Boximator

Boximator是字节跳动推出的一款利用深度学习技术进行视频合成的先进工具。它使用文本提示和额外的盒子约束来生成丰富且可控制的视频运动,从而为用户创造独特的视频场景提供了灵活的运动控制。具体来说,Boximator可以通过文本精准控制生成视频中人物或物体的动作,能生成包含多个角色以及特定类型运动的复杂场景,并能精确生成物体和背景的细节。
0200
YAYI2

YAYI2

YAYI2(雅意2)是中科闻歌推出的新一代开源大语言模型,支持中文、英语等 10 多种语言。基于 Transformer 架构,参数规模达到 30B。YAYI2 采用 2 万亿 Tokens 的高质量语料进行预训练,并结合人类反馈强化学习,确保模型与人类价值观对齐。其多模态交互功能支持图文互生成、PDF 解析等。YAYI2 广泛应用于媒体宣传、舆情分析、政务治理、金融分析等领域,为企业提供 AI 辅助工具和知识库问答系统。
0180
PengChengStarling

PengChengStarling

PengChengStarling是由 PengCheng Labs 开发的多语言自动语音识别工具,支持中文、英语、俄语、越南语、日语、泰语、印度尼西亚语和阿拉伯语。相比 Whisper-Large v3,PengChengStarling 的模型仅占其 20% 大小,但推理速度提高了 7 倍,且流式语音识别效果卓越。PengChengStarling 是开源的,采用 Apache 2.0 许可证,适用于语音助手、翻译工具、字幕生成和语音搜索等多种应用场景。
0150
DeepSpeed

DeepSpeed

DeepSpeed是一个由微软开发的开源深度学习优化库,旨在提高大规模模型训练的效率和可扩展性。它通过多种技术手段来加速训练,包括模型并行化、梯度累积、动态精度缩放、本地模式混合精度等。DeepSpeed还提供了一些辅助工具,如分布式训练管理、内存优化和模型压缩等,以帮助开发者更好地管理和优化大规模深度学习训练任务。
0210
Moonvalley.ai

Moonvalley.ai

Moonvalley.ai是一款功能强大的文本到视频生成式AI模型。它可以从简单的文字描述中生成高清视频和动画,涵盖各种不同的风格,包括超现实视频、动漫以及介于两者之间的所有内容。用户只需提供简要的文字提示,即可创造电影级的视觉效果。该模型主打高清、16:9电影画质,视频质量比大多数其他一代AI视频工具要好得多。
0120
FunAudioLLM

FunAudioLLM

FunAudioLLM 是由阿里巴巴通义团队开发的旨在增强人类与大型语言模型(LLMs)之间的自然语音交互的框架。其核心包括两个创新模型:SenseVoice 和 CosyVoice。SenseVoice 提供高精度的多语言语音识别、情绪识别和音频事件检测,支持超过 50 种语言,并具有极低的延迟。CosyVoice 则专注于自然语音生成,支持多语言、音色和情绪控制,能够进行零样本语音生成、跨语言语音克隆和指令遵循。
0220
53AI

53AI

53AI是一个开箱即用的企业大模型应用平台,致力于帮助企业快速部署和利用大型语言模型(LLMs),提供企业大模型落地应用、业务智能化改造、私有模型定制和大模型咨询服务。通过 53AI,企业可以轻松实现业务流程的智能化,提高运营效率和竞争力。它支持私有云部署,帮助企业实现大模型的知识库建设、模型训练和智能体开发,从而将AI技术应用于企业的各个业务流程和产品中。
0120
天谱乐

天谱乐

天谱乐是唱鸭旗下的AI音乐品牌,为用户提供个性化、智能化的音乐创作体验。它支持文本、图片和视频生成音乐,让创作变得简单便捷。利用先进的多模态理解与生成技术,天谱乐能够生成与图片和视频情感高度契合的音乐,并提供发行级的歌曲创作服务。无论是专业音乐人还是普通爱好者,天谱乐都能帮助您高效创作出独一无二的音乐作品。
0250
CodeGemma

CodeGemma

CodeGemma是一个由Google基于Gemma模型开发的开源代码模型系列。它专为代码生成和理解而设计,提供了强大的代码自动补全和生成功能。CodeGemma支持多种编程语言,适用于软件开发、编程教育和跨语言开发项目。它的主要功能包括智能代码补全、代码生成、代码理解、多语言支持、代码优化建议以及错误检测与修正,旨在提高开发者的编码效率和软件质量。
0160
MuseV

MuseV

MuseV是一个由腾讯音乐娱乐旗下的天琴实验室推出的基于SD扩散模型的高保真虚拟人视频生成框架。支持文生视频、图生视频、视频生视频等多种生成方式,能够保持角色一致性,且不受视频长度限制。这意味着用户可以通过MuseV轻松地将文本、图像或现有视频转换成高质量的虚拟人视频,无需担心角色形象的不统一或视频时长的限制。
0270
CatVTON

CatVTON

CatVTON是一款基于扩散模型的虚拟试穿技术工具,旨在提供高效、低资源需求的虚拟试穿体验。通过在空间维度上简单地拼接服装和人物图像来实现不同类别服装的虚拟试穿,该方法有效地降低了模型复杂度和计算成本,同时保持了高质量的虚拟试衣效果,特别适用于电商平台、时尚设计、个人造型顾问、增强现实应用和虚拟时装秀等场景。
0230
CogVideo

CogVideo

CogVideo是目前最大的通用领域文本到视频生成预训练模型,含94亿参数。CogVideo将预训练文本到图像生成模型(CogView2)有效地利用到文本到视频生成模型,并使用了多帧率分层训练策略。用于文本到视频的生成。它是基于Transformer架构的,旨在通过理解和转换文本描述来生成相应的视频内容。CogVideo能够处理大量的文本-视频对数据,并通过学习这些数据的模式来生成与文本描述相匹配的视频。
0170
Mini-Gemini

Mini-Gemini

Mini-Gemini是一个简单而有效的框架,用于增强多模态视觉语言模型(VLMs),由中国香港中文大学和 SmartMore 的研究人员共同推出。Mini-Gemini支持一系列密集和MoE大型语言模型(LLMs),从2B到34B。为了增强视觉token,该框架建议在不增加视觉token数量的情况下,利用额外的视觉编码器进行高分辨率细化。同时,Mini-Gemini还构建了一个高质量的数据集,以促进精确的图像理解和基于推理的生成,从而扩大当前VLM的操作范围。
0110
Evidently Al

Evidently Al

Evidently Al 是一个开源的机器学习模型监测和测试平台,它可以帮助您分析和改进您的模型性能。它可以让您轻松地创建交互式的可视化报告,展示您的模型在验证和预测期间的表现,以及数据漂移的情况。您可以使用 Evidently 这个开源 Python 库来生成 Evidently Al 大模型所需的 JSON 配置文件,然后在 Evidently Al 大模型的网站上上传和查看您的报告。
0180
腾讯混元生图

腾讯混元生图

腾讯混元生图是腾讯推出的业内首个集多轮图文多模态对话和工具化编辑图像为一体的AI生图产品。它不仅可以通过自然语言和图像输入,实现文本到图像、图像到文本的生成能力,同时支持多轮对话,并且支持通过唤起精调面板,进一步编辑生成好的图像,使用户能够精准控制生成的内容,为创作、设计、故事生成等场景提供强大而灵活的工具。
0400