
妙笔是阿里巴巴最新开源的中文文生图模型,它与经典的Stable Diffusion 1.5版本结构相同,兼容现有的lora、controlnet等主流插件及其权重。妙笔的特点是用户可以直接输入中文进行文生图操作,生成的图像效果逼真。例如,输入“枯藤老树昏鸦,小桥流水人家。水墨画。”,妙笔能够理解诗句中的意境并生成相应的图像。 妙笔的训练数据包括Laion-5B中的中文子集、Midjourney相关的开源数据以及数十万的caption数据。但由于数据集在成语和古诗词方面存在偏差,对中国名胜地标建筑数据的缺少,以及大量的英译中数据,可能会导致一些理解上的混淆。目前,妙笔Beta0.9版本已经在8张4090显卡上完成训练,开发者也在计划扩展机器资源以训练更高级的模型,以期获得更优的结果。 妙笔的使用也非常简单,用户只需克隆项目并安装所需的包,下载模型权重后即可开始生成图像。此外,妙笔还提供了多种示例和教程,帮助用户快速上手和掌握使用方法。 妙笔直接输入中文就可以完成文生图操作,使用起来非常便捷,生图的效果也十分逼真。 比如输入“枯藤老树昏鸦,小桥流水人家。水墨画。”来看秒笔生成结果。可以看出妙笔很好的表达出来诗句中的意思并生成了诗中的内容。 再比如输入“极具真实感的复杂农村的老人肖像,黑白。” 可以看出生成的人像具有很好的完整性和真实感,以往生图模型在生成人像方面的缺点在这也都完成的很好。 项目地址 https://github.com/ShineChen1024/MiaoBi 安装运行 1.克隆项目 git clone https://github.com/ShineChen1024/MiaoBi.git 2.创建虚拟环境并安装所需要的包 conda create -n MiaoBi-SD python==3.10 conda activate MiaoBi-SD pip install torch==2.0.1 torchvision==0.15.2 numpy==1.25.1 diffusers==0.25.1 opencv 3.下载模型 从Huggingface下载权重,并把它放在检查点文件夹。 MiaoBi checkpoints下载链接 Diffuser使用 from diffusers import StableDiffusionPipeline from transformers import AutoTokenizer tokenizer = AutoTokenizer.from_pretrained(“checkpoints/miaobi_beta0.9/tokenizer”, trust_remote_code=True) pipe = StableDiffusionPipeline.from_pretrained(“checkpoints/miaobi_beta0.9”) pipe.to(“cuda”) prompt = “一只穿着铠甲的猫” image = pipe(prompt).images[0] image.save(“铠甲猫.png”) 模型推理 python demo python miaobi_generate.py ###controlnet demo python miaobi_controlnet.py 中文生图示例 一只精致的陶瓷猫咪雕像,全身绘有精美的传统花纹,眼睛仿佛会发光。 动漫风格的风景画,有山脉、湖泊,也有繁华的小镇子,色彩鲜艳,光影效果明显。 车水马龙的上海街道,春节,舞龙舞狮。 局限性 妙笔的训练数据包含Laion-5B中的中文子集(经过清洗过滤),Midjourney相关的开源数据(将英文提示词翻译成中文),以及收集的一批数十万的caption数据。 由于整个数据集大量缺少成语与古诗词数据,所以对成语与古诗词的理解可能存在偏差,对中国的名胜地标建筑数据的缺少以及大量的英译中数据,可能会导致出现一些对象的混乱。 妙笔Beta0.9在8张4090显卡上完成训练,目前也在拓展机器资源来训练SDXL来获得更优的结果,期待后续的更新。
数据统计
相关导航

腾讯混元DiT是一个基于Diffusion transformer的文本到图像生成模型,也是业内首个中文原生的DiT架构文生图开源模型。该模型具有中英文细粒度理解能力,能够与用户进行多轮对话,根据上下文生成并完善图像。

HelloMeme
HelloMeme 是一个专注于生成高保真图像和视频内容的 AI 项目,特别是表情克隆技术。通过采用最新的 SD1.5 架构和空间编织注意力扩散模型,HelloMeme 可以轻松将一张图片的表情迁移到另一张图片或视频上,生成效果超越同类工具如 Liveportrait。HelloMeme 支持 ComfyUI 界面操作,非常适用于 AI 数字人、表情包制作和照片复活等领域,带来更自然细腻的表情效果。

Codex大模型
Codex大模型是一个基于GPT技术的强大编程语言模型,具备自动生成代码、文档、测试用例等功能。它能够理解和处理复杂的编程问题,提高开发效率,是编程领域的重要创新。

沃研Turbo大模型
沃研Turbo是由沃恩智慧公司专为大学生打造的科研大模型。它集成了多项科研辅助功能,包括期刊推荐、文献摘要、论文精读、翻译润色、创新点评估、个性化论文推荐和AI降重。通过多模态AIGC技术,沃研Turbo能够快速响应科研需求,提升科研效率。用户只需在网页上上传论文、文本或链接,即可享受便捷的科研辅助服务。沃研Turbo致力于简化科研过程,帮助大学生在学术道路上取得更大成就。

Etna模型
Etna大模型是七火山科技推出的一个文生视频的AIGC模型,它能够根据简短的文本描述生成相应的视频内容。七火山科技发布的Etna文生视频模型支持生成视频时长达到8~15秒,每秒可达60帧,分辨率最高可达4K(3840*2160),画面细腻逼真。

Outfit Anyone
Outfit Anyone是一种虚拟试穿技术,它可以让用户在照片上穿上任何衣服。它是阿里巴巴集团智能计算研究所开发的一个创新项目,利用先进的人工智能和机器学习技术,提供高质量和细节一致的虚拟试穿效果。它可以适应不同的姿势和身材,甚至可以在动漫角色上试穿服装。

Cherry Studio
Cherry Studio 是一个支持多模型服务的AI桌面客户端,支持 Windows、macOS 和 Linux,未来还将支持移动端。用户可以通过Cherry Studio无缝集成多种大型语言模型 (LLM),包括 OpenAI、Anthropic 和 Gemini 等,甚至本地部署的模型,确保数据隐私和安全。

Sora
Sora是一个能以文本描述生成视频的人工智能模型,由美国人工智能研究机构OpenAI开发。它能够根据用户的文本描述生成长达 60 秒、1080P 高质量视频,其中包含精细复杂的场景、生动的角色表情以及复杂的镜头运动。并在单个生成视频中创建多个镜头,准确保留角色和视觉风格。
暂无评论...