StableDiffusion三视图制作指南:轻松实现创作
Stable Diffusion

StableDiffusion三视图制作指南:轻松实现创作

这篇文章主要介绍了如何使用Stable Diffusion在线版制作三视图的方法。作者首先准备好一张三视图或线稿图,然后选择大模型revAnimated_v122.safetensors,并采用DPM、SDE、Karras等方法进行数据采样和预处理。最后,通过控制Net进行关键词正向提示词设置,如"Drawing illustrations", "color scheme", "super cute bunny hat girl"等,并生成反面提示词,如"NSFW", "Unclear", "low resolution"等。接着点击生成,开始抽卡环节。
StableDiffusion:从文本到图像的潜在扩散之旅
Stable Diffusion

StableDiffusion:从文本到图像的潜在扩散之旅

Stable Diffusion是由CompVis、Stability AI和LAION团队开发的一款文本到图像的潜在扩散模型。该模型采用512x512图像进行训练,并可以生成包括人脸在内的各类图像。其核心思想是通过 Latent Diffusion 技术在较低维度的潜空间上进行扩散过程,降低计算和内存成本。具体而言,该模型主要由自动编码器(VAE)、U-Net 和 Text-Encoder 构成。VAE 由编码器和解码器组成,其中编码器将图像转换为低维潜在表示,解码器则将潜在表示转换回图像。U-Net 结构包括编码器和解码器,编码器负责下采样图像,解码器则负责上采样图像。此外,模型的推理过程涉及将随机种子和文本提示输入到潜在空间,然后使用 U-Net 对随机潜在图像表示进行去噪。目前,Stable Diffusion 提供了一个简单的 API,用户可以通过该API生成图像。
百川智能发布两款大模型,实现开源共赢,推动国内大模型科研进展
Stable Diffusion

百川智能发布两款大模型,实现开源共赢,推动国内大模型科研进展

百川智能在北京市科学技术委员会等指导下,于9月6日举办了一场名为“百川汇海,开源共赢”的大模型发布会,并宣布开源了微调后的Baichuan 2-7B、Baichuan 2-13B、Baichuan 2-13B-Chat及4bit量化版本,免费可商用。此外,百川智能还开源了模型训练的Check Point,并发布 Baichuan 2 技术报告。这意味着,大模型训练的过程将更加透明,有助于推动国内大模型的科研进展和开源生态的发展。而腾讯云、阿里云、火山方舟、华为、联发科等知名企业已积极响应并达成合作,这将为百川智能的开源大模型带来更多商业机会。