文章主题:[[AIGC, 命
在当前的社会环境中,有关人工智能(AI)的话题已经成为热点,尤其是AIGC可能带来的影响更是引起广泛的关注。面对这样的情况,我们应该如何理解?是否感到焦虑?又或者认为这仅仅是像VR、元宇宙那样被资本操控的金钱游戏?AI绘图是否只是普通的技術應用,還是真能引发生产力的革命,甚至替代画师?在这个网络环境日益浮躁的时代,我認為只有深入了解AI,才能做出一個可靠的判斷。
这篇原理阐述文章主要面向非专业人士,不涉及任何复杂的公式或难以理解的概念。无论是与否在使用Stable Diffusion AI绘图工具,只要略微浏览一下,都能从中受益良多。
在阅读本文之后,您将对话Stable Diffusion中的提示、CFG、VAE和步骤等参数有更深入的认识,从而使您的生成过程告别盲目性,变得更加具有目标性和方向感。同时,您也将对AIGC工具的性能范围及其在我们工作中的应用形式有更清醒、更理性的了解。
以下是正文:原文链接 : How Stable Diffusion Work
Stable Diffusion是一款深度学习模型,本篇将对其进行深入剖析,探讨其内部运作机制,以及它究竟是如何生成图像的。
为什么你需要深入了解AI绘画工具的工作原理呢?这不仅因为它本身具有极高的价值,更因为它将助你成为更优秀的AI绘画艺术家。当你熟悉了它的内部运作,你就能更合理、精确地利用这个工具,从而创作出更细腻、生动的画作。
在本文中,我们将深入探讨text-to-image(文生图)与image-to-image(图生图)之间的差异,同时解释CFG值以及denosing strength(降噪强度)的含义。通过阅读这篇文章,你将能够全面了解这些概念,从而在相关领域内取得更深入的理解。
Stable Diffusion 能做什么
以最简单的形式来说,Stable Diffusion是一个文本到图像的生成模型。给它一个文本指令作为输入,它将返回给你一张与输入指令匹配的图像。
Stable diffusion将文本指令转化为图像扩散模型(Diffusion Model)
稳定扩散模型(Stable Diffusion)属于深度学习模型中的一个大类,即扩散模型。它们属于生成式模型,这意味着它们是被设计用于根据学习内容来生成相似的新的数据的。对于稳定扩散模型而言,新的数据即为图像数据。
为什么称之为扩散模型?因为模型中使用的数学看起来与物理学中的扩散公式非常相似。我们来了解一下这个模型的理念。
假设我们只使用猫和狗这两类图像来训练这个稳定扩散模型。如下图所示,图中左侧曲线的两个峰值代表了猫与狗这两组图像。
前向扩散过程将图片变成噪声图前向扩散(Forward diffusion )
所谓前向扩散(forward diffusion)过程就是向训练图像中不断地添加噪声,从而使其逐渐变为一张毫无意义的纯噪声图。在我们的例子中,前向扩散过程会将猫与狗的图片转变为噪声图。最终你将无法从得到的噪声图中分别出原来的图究竟是猫还是狗(这点很重要)。
这就好比往一杯水中滴入一滴墨水。墨滴将在水中扩散,在几分钟之后,它将随机均匀的遍布于整杯水中,你将再也无法从这杯水中看出原来的墨滴究竟是从杯子的中心还是边缘滴入的了。【译者注:此处呼叫水哥王昱珩】
下图演示了一张图像经由前向扩散逐渐变为纯噪声图的过程。
一张猫图的前向扩散过程逆向扩散(Reverse diffusion)
现在来到神奇的部分了。如果我们能够逆转扩散的过程会怎样呢?就像影片倒带一样,在时间线上逆向移动,那我们最终将会看到墨滴最初是从哪里滴落的了。
逆向扩散过程将图片从噪声图中还原从一张完全无意义的噪声图,逆向扩散过程使其还原为一张猫【或】狗的图像,这就是逆向扩散的核心理念。
从技术上来说,每个扩散过程都有两个分量:(1)漂移或引导的方向;(2)随机的方向。逆向扩散会将结果导向猫或者狗的图像,但并不会是二者之间的图像。这也是为什么我上面说,逆向扩散的结果将会是猫或者狗。
训练是是如何完成的
逆向扩散的理念是如此的高明与优雅,但是真正有价值的问题是,怎么来实现它呢?
为了将扩散过程逆转,我们需要知道到底有多少噪声被添加到了图像中。而这个问题的答案,将会由一个经过训练的神经网络模型来预测解答。在Stable Diffusion模型中,这个模块被称为**噪声预测器(noise predictor)**。训练的过程如下:
选择一张训练图片,比如一张狗或猫的图像
生成一个随机的噪声图
将这张噪声图像原始训练图片中添加特定次数,使图像变得嘈杂
以正确答案为基准,通过调试参数,训练噪声预测器最终能够识别出究竟有多少次噪声被添加到了这张图片中。【译者注:即一个标准的有判定的神经网络训练过程】
噪声是逐步添加到图像中的,噪声预测器将预估每一步中累计被添加噪声的总和在训练完成后,我们将得到一个能够估计出有多少噪声被添加到了一张图像中的噪声预测器。
逆向扩散(Reverse diffusion)
现在我们有了一个噪声预测器,我们将怎样使用它呢?
我们将首先生成一张完全随机的图像,并让噪声预测器告诉我们这张图像中被添加了哪些噪声。随后我们就可以将噪声预测器给出的噪声图像从原始图像中剔除出去【译注:即反向的图像叠加操作】。重复以上步骤几次,我们即可以得到一张猫或是狗的图像了。
逆向扩散通过将预测的每一步的噪声逐渐从图中减去,最终得以还原图像你可能注意到了,按上面的描述,我们所实现的逆向扩散过程没法控制最终结果是一个猫还是狗的图像。在后面的“调节”章节中我们会着重来论述这一点。就目前我们所介绍的内容来说,图像的生成是无条件的(unconditioned)
稳定扩散模型(Stable Diffusion Model)
现在,我将告诉你一些坏消息:以上我们所描述的过程,并不是Stable Diffusion模型的工作机制!原因是,以上所描述的扩散过程都是在图像(像素)空间(image space)进行的。它的计算量是非常非常巨大的,因而生成的速度会非常的慢。而且你不可能在任何一个单一的GPU中跑通这个过程,更别说那些笔记本电脑上的垃圾GPU了。
图像的像素空间是非常巨大的。想象有一张512×512大小RBG三通道的彩色图片,这将是一个768,432(512x512x3)维度的空间。(意味着为了生成一张图,你需要确定768,432个值)
扩散模型如谷歌的 Imagen 或者Open AI的 DALL-E 都是在像素空间上运行的,它们使用了一些技巧去使模型的计算速度得以提升,但总的来说提升的并不够。
潜空间扩散模型(Latent diffusion model)
稳定扩散模型(Stable Diffusion)的设计目的,就是要解决速度的问题。它是这么做的:
Stable Diffusion模型实际上是在潜空间中的扩散模型。为避免在高维度的图像空间中操作,它首先将图像压缩到了一个称作潜空间的区域中。潜空间相较于像素空间小了48倍【译者注:你可以简单的理解将图像压缩了48倍】。也就是说,模型所处理的计算数据相比之下少了许多,也因此它比标准的扩散模型快了非常多。
变分自动编码器 (Variational Autoencode)
实现图像潜空间压缩的技术叫做变分自动编码器,是的,就是那个你在SD工具中需要设置的VAE文件,我这里会说的更详尽一点。
变分自动编码器(VAE)神经网络有两个部分:(1)编码器;(2)解码器。编码器将图像压缩至潜空间这个低维度的表达形式,而解码器则是将潜空间的数据还原为原始的图像。
变分自动编码器将图像转入以及转出潜空间Stable Diffusion所使用的是一个4x64x64的潜空间,相较于图像的像素空间【译注:512×512的图像】而言小了48倍。所有我们上一章节所描述的前向扩散与逆向扩散的过程都实际是在这个空间中完成的。
训练的过程也是一样的,训练流程中生成的并不是噪声图像,而是潜空间中的张量(即一个4x64x64的噪声图)。训练中像潜空间的图像添加潜空间的噪声,而不是像素图添加像素噪声。这样做的原因都是因为由于潜空间较小从而可以使整个过程的执行速度得到大幅的提升。
为什么图像能压缩至潜空间(latent space)?
你可能震惊于为什么VAE可以将图像压缩到如此小的空间之中而不损失信息。原因很简单:自然图像并不是纯随机的。它们有着很高的规律性:一张脸上的五官总是有着特定的空间关系,一只狗总是有着4条腿以及总体的一类特征形状。
换句话说,图像的高维度是人为刻意产生的,而自然图像可以很容易地压缩到更小的潜在空间中而不会丢失任何信息。这在机器学习中被称为 流形假设。
在潜空间中做逆向扩散
我们来整理一下在Stable Diffusion模型中,逆向扩散如何在潜空间中进行的
一个随机的潜空间矩阵被生成(4x64x64维)
噪声预测器预测出一个潜空间噪声,其在前向扩散过程中被作用在了这个潜空间噪声矩阵上
从原始潜空间噪声中减去预测出的噪声
重复2到3步指定的采样次数(sampling steps)
VAE的解码器(decoder)将得到到的潜空间矩阵数据还原为最终的像素图像。
什么是VAE文件?
VAE文件 在 Stable Diffusion一代中用于提升眼睛与面部的绘画结果。正如前面讲的,它们是自动编码器所对应的解码器。通过对解码器进行调教,Stable Diffusion模型的生成图像可以拥有更好的细节表现。
你可能注意到了我前面有一处描述并不是完全正确的。将图片压缩至潜空间是会丢失原始图像的信息的,因为原始的VAE并不能对细节进行恢复。因此VAE解码器将负责在解码过程中绘制那些精细的细节内容。
调节(Conditioning)
以上关于模型的描述仍然是不完整的:当我们使用SD时所传入的文字指令是如何生效的呢?没有指令的存在,SD并不是一个完整的text-to-image模型。你没有办法控制SD最终为你生成一张猫的图片还是一张狗的图片。
这时候我们就需要引入“调节(Conditioning)”了。调节的目的是引导噪声预测器,以便预测的噪声在从图像中减去后,会使图像朝着我们想要的结果演变。
文本指引 (text-to-image)
下图展现了文字指令(Text Prompt)如何经过处理并送入噪声预测器的过程。分词器(Tokenizer)首先将指令中的每个单词转化为一个数字表示的词元(token)。每个词元随后将转换为一个包含768个数值的向量,我们称之为标签(Embedding)(是的,就是那个你在SD GUI工具中所使用的Embedding)。这些标签随后传递给文本Transformer模型【译注:可理解为一个通用的神经网络模型】,并经过其处理后交由噪声预测器使用。
文本指令被处理并送入噪声预测器以控制图像生成的过程到这里我们其实已经给出了一个完整的SD运作机制的概述,如果你认为这已经足够了,那可以跳过后面的内容。接下来,我们会将以上步骤拆解的更为详细一些。
分词器(tokenizer)
文本指令将会首先被一个CLIP分词器分解为一组词元。CLIP是一个由OpenAI开发的深度学习模型,被用于生成对任意图像的文本描述。Stable Diffusion第一代版本使用的是CLIP分词器。
将文本词元化,是使其可以被计算机所理解的第一步。我们人类可以阅读文字,但是计算机只能阅读数字,这就是文本指令处理过程中首先被转换成一组词元所对应的数字的原因。
一个分词器只能对其在训练过程中见到过的词汇进行分词。比如说,在CLIP模型中有“dream“和”beach“这两个词元,但是并没有”dreambeach“这个词元。分词器在处理时会将dreambeach这个单词拆分为”dream”和“beach”这两个它所认识的词元·。因此,一个单词并不一定只对应一个词元!
另一个细则是,空格也是词元的一部分。“dream beach”这个单词将会生成两个词元“dream“与”[空格]beach”。这些词元实际上与上个例子中由“dreambeach”解析出来的两个词元是不一样的(前面例子中的词元是不带空格的)。
Stable Diffusion模型所使用的指令长度被限制为75个词元。(现在你知道了这并不等同于75个单词)【译注:作者这里说的75个词元限制是针对于基础的SD模型,而SD工具通过对指令进行拆分处理,再合并的方式让你可以输入任意长度的指令】
标签(Embedding)
Stable Diffusion一代版本使用的是OpenAI的ViT-L/14 CLIP模型。在这个模型中标签向量的长度是768。每个词元都有其唯一对应的标签向量。这些标签向量的值在CLIP模型中是固定的,通过训练所得到的。
我们为什么需要标签?这是因为不同的单词之间可能会有很强的关联性。我们需要使用到这种关联性的信息。举例来说,man(男人), gentleman(绅士), guy(男的)这几个词对应的标签值几乎是一样的,因为这些单词在文字中大多情况是可以相互替换的。Monet,Manet与Degas都是印象派的画家,但各自风格又有显著区别,所以这几个名字所对应的标签向量有相近的部分,但又不完全一样。
这里我们所讨论的标签(Embedding),与在使用SD时所用于调教模型的标签是一个东西。标签的使用是有魔法的。科学家们已经证明了,在SD中找到一个合适的标签向量即可以触发任意物体与风格要素,这种模型调教技术被称作逆向构建(Textual Inversion)。
将标签(embeddings)喂给噪声预测器(noise predictor)
文本输入数据由标签转为噪声预测器输入上一步得到的那些标签在传入噪声预测器前,还需要先交由文本Transformer做进一步处理。Transformer模型类似于一个通用的调节因子适配器。在现在的情况中,输入给Transformer的是标签向量,但实际上也可以将其他种类的数据如:类型标签、图像、深度图等作为输入传入这个模型中。Transformer存在的意义,不仅仅是需要其作为数据处理的一个环节,更在于它可以提供一个能包含不同调节方式的数据处理机制。
经由Transformer模型输出的数据,将在后面的U-Net神经网络中被噪声预测器多次使用。而U-Net使用一种叫做交叉注意力(cross-attention)的机制来使用这些数据。正是这个机制使得在前面步骤中被拆散的单词指令能够被正确的组合关联起来。举例来说:指令“A man with blue eyes”需要在“blue”与“eyes”之间形成交叉注意力,这样Stable Diffusion才能知道需要绘制的是一个有蓝色眼睛的男人,而不是一个有眼睛的蓝色男人。
其他类型的指引
文本指令并不是唯一能够调节Stable Diffusion的方式。
在depth-to-image功能中,文本与深度图都可以作为调节参数来使用。
ControlNet通过轮廓线、人物姿态等来控制噪声预测器,在对于生成图像的控制上取得了非常卓越的效果。
Stable Diffusion 101
现在,你已经知晓了Stable Diffusion全部的运作机制了,接下来我们继续逐一详述下Stable Diffusion的各个功能的实际运作过程。
文本生成图像(Text-to-image)
在使用文本到图像功能时,你通过给SD传入一个文本指令,使其返回一张图像。
第一步,Stable Diffusion生成一个潜空间的随机张量。这个随机张量的生成是受你在SD中设置的随机种子(seed)的值所控制的。如果你将随机种子设置成了一个固定值,那SD将始终使用同样的初始随机张量。不要忘了,这个随机张量就是你图像在潜空间中的表达形式,只不过目前他还只是完全的噪声。
在潜空间生成一个随机的张量(即一组随机数)第二步,噪声预测器的U-Net网络会将这个初始随机张量与文本指令作为输入传入其中,并预测出应移除的噪声,当然其也是个潜空间的张量。
第三步,将这个潜空间噪声从潜空间初始图像中减去,得到潜空间中新的图像。
第二步与第三步将根据你设置的采样步数(sampling steps)重复特定次数,比如20次。
第四步,VAE解码器将最后得到的潜空间图像恢复为像素空间的图像,这也是你在Stable Diffusion工具中最终得到的图像。
这里展示了图像经过每一次去噪步骤后的变化情况。
图生图(Image-to-image)
图生图方法首先是由 SDEdit 所提出的。SDEdit可以应用于任何的扩散模型。因此我们在Stable Diffusion中也有了图生图的功能。
图生图功能使用一张图片与一段文字指令共同作为输入。生成的图像将受到这两个输入的共同调节作用。比如,使用下面这张初级草图以及一段指令 ”photo of perfect green apple with stem, water droplets, dramatic lighting” 作为输入,图生图功能会将其转化为一张很专业的绘画:
下面介绍其具体生成的过程。
第一步,输入的图片会被编码至潜空间中
第二步,我们会向其添加噪声。通过在SD工具中设置降噪强度(Denoising strength)可以控制究竟要添加多少噪声到原始输入图像中去(在潜空间)。如果这个值设置为0,不会有任何噪声添加进去,如果是1则会向其添加最大量的噪声以使其成为一个在潜空间中完全随机的张量。
第三步,噪声预测器将上一步处理后的潜空间图像与文字指令作为输入传入其U-Net网络,并给出预测应减去的潜空间噪声张量。
第四步,将这个潜空间噪声从潜空间初始图像中减去,得到潜空间中新的图像。
第三步与第四步将根据你设置的采样步数(sampling steps)重复特定次数,比如20次。
第五步,VAE解码器将最后得到的潜空间图像恢复为像素空间的图像,这也是你在image-to-image工具中最终得到的图像。
所以现在你知道图生图究竟是什么了,他所做的就是将初始的潜空间图像设置为输入图片与一些噪声的混合。如果你将降噪强度(denoising strength)设置为1,那你获得的图片其实就等价于纯粹使用文本指令运行文本生成图片工具所得到的结果,因为此时这两种功能使用的初始潜空间图像都是一个完全随机的噪声图。
修图(Inpainting)
修图其实只是图生图的一种特殊形式。噪声将仅被添加到图中你希望修改的部分。噪声的添加量同样是使用降噪强度这个参数来控制。
Depth-to-image
Depth-to-image是image-to-image的增强;它使用深度图生成具有附加条件的新图像。
第一步,输入图像被编码到潜空间
第二步, MiDaS (一个AI模型) 根据输入图像来分析其深度信息。
第三步,我们会向潜空间的原始输出图像添加噪声。通过在SD工具中设置降噪强度(Denoising strength)可以控制究竟要添加多少噪声到原始输入图像中去(在潜空间)。如果这个值设置为0,不会有任何噪声添加进去,如果是1则会向其添加最大量的噪声以使其成为一个在潜空间中完全随机的张量。
第四步,噪声预测器将预估应移除的潜空间噪声,并受到文本提示输入和深度图输入的共同调节。
第五步,将这个潜空间噪声从潜空间初始图像中减去,得到潜空间中新的图像。
第四步与第五步将根据你设置的采样步数(sampling steps)重复特定次数,比如20次。
第六步,VAE解码器将最后得到的潜空间图像恢复为像素空间的图像,这也是你在depth-to-image工具中最终得到的图像。
CFG值是什么?
关于Stable Diffusion还有一个重要的概念需要介绍,那就是无分类器引导(Classifier-Free Guidance,CFG)。这个参数相信是每个使用SD的美术每天都在不停调试的值。为了能够较好的理解这个概念,我们先来介绍一下它的前身,即分类器引导(Classifier Guidance)。【译注:尽管我都翻译了,但这部分对于非专业人士来说,理解起来还是比较困难,推荐只看最后一节总结就行了】
分类器引导(Classifier Guidance)
分类器引导是一种能够将图像标签(label)信息包含于Stable Diffusion模型中的方法。你可以使用一个标签来引导扩散过程。举个例子,“猫”这个标签可以引导逆向扩散过程使其生成一张关于猫的图像。
分类器引导强度(classifier guidance scale)是一个用于控制扩散过程应该多贴近于给定标签的一个变量。
下图是一个我从 这篇论文 中偷来的示例。假设有三组图片分别具有”猫“,”狗“以及”人“的标签,如果扩散过程是无引导的,扩散模型在绘图过程中会在这三个组中均匀采样【译注:这句话是按自己理解写的,直接翻译读不懂,如有错误欢迎指正】。这会导致它有时候输出的图像会包含两个标签的内容,比如一个男孩牵着一条狗。
分类器引导。左:无引导。中间:低强度引导。右:高强度引导。在分类器的高强度作用下,扩散模型产生的图像将偏向于某一标签类别中极端或明确的那些示例。如果你要求模型绘制一个猫,它将返回一张确切无疑是猫的图像并且不包含任何其他内容。
分类器引导强度(classifier guidance scale)控制扩散过程与指导目标的贴近程度。在上图中,右边的样本比中间的样本具有更高的分类器引导强度。实际上,这个比例值只是扩散模型计算中的一个漂移变量的乘数。
无分类器引导(Classifier-free Guidance)
尽管分类器指导为扩散模型带来了突破性的效果提升,但它需要一个额外的模型来提供该指导。这给整个模型的训练带来了一些困难。
无分类器引导(Classifier-free Guidance),用其作者的话来说,是一种可以获得分类器引导结果而不需要分类器的方法。不同于前面所说使用标签和一个单独模型用于引导,他提出使用图像的描述信息并训练一个带条件的扩散模型(conditional diffusion model)。
在text-to-image功能中,这种引导就由文本指令来提供。
【译注:再用我自己的理解翻译一遍,如果不对欢迎指正:无分类器引导就是不以图像+标签作为训练内容,而是以图像+其文字概述作为训练内容,因此不需要再额外训练一个判断图像与标签匹配度的分类器,来额外较正图像生成模型。而直接训练生成图像与图像+文字描述的匹配度,从而得到的就是一个具有text-to-image功能的整体的图像生成模型】
CFG值
现在我们有了一个可调节的无分类器的扩散过程,我们要如何控制扩散过程遵循指导到什么程度?
无分类器引导 (CFG) 强度是一个值,它控制文本指令(prompt)对扩散过程的影响程度。当将其设置为 0 时,图像生成是无引导的(即忽略提示),而较高的值会使扩散过程更贴近于文本指令。
StableDiffusion一代版本与二代版本的比较
这已经是一篇很长的文章了,但如果不比较 v1 和 v2 模型之间的差异,这篇文章就不算完整。
模型差异
Stable Diffusion v2 使用 OpenClip 进行文本数据处理(text embedding)。Stable Diffusion v1 使用 Open AI 的 CLIP ViT-L/14 进行文本处理。这种变化的原因是:
OpenClip 模型大小是原来的5倍。更大的文本编码器模型提高了图像质量。
尽管 Open AI 的 CLIP 模型是开源的,但这些模型是使用专有数据训练的。切换到 OpenClip 模型使研究人员在研究和优化模型时更加透明。更利于长远发展。
训练数据差异
Stable Diffusion v1.4 使用如下数据集进行训练
237k steps at resolution 256×256 on laion2B-en dataset.
194k steps at resolution 512×512 on laion-high-resolution.
225k steps at 512×512 on “laion-aesthetics v2 5+“, with 10% dropping of text conditioning.
Stable Diffusion v2 使用如下训练集训练:
在256×256分辨率下训练550k步,使用 LAION-5B图像数据集,并使用了 punsafe=0.1 以及 aesthetic score >= 4.5 两个条件参数从中筛除了“不和谐”图片。【译注:punsafe=0.1即表明训练数据集中出现“不和谐”图片的概率低于10%】
在 512×512分辨率下训练850k步,使用同样的数据集,筛选条件是分辨率大于或等于512×512的
再使用一种叫 v-object 方式在同样数据集上再训练150k步
在768×768分辨率下再训练140k步。
Stable Diffusion v2.1 基于v2版本进一步优化:
在同样数据集上再训练 55k 步
另外再在数据集筛选条件punsafe=0.98的结果中再训练155k 步
所以基本上,他们在后面的训练步骤中关闭了 NSFW (Not suitable for work) 过滤器【译注:也就是说v2.1也可以出涩图】。
输出结果差异
用户普遍发现使用 Stable Diffusion v2 来控制风格和生成名人更难。虽然 Stability AI 【译注:基础模型发布团队】没有明确过滤掉艺术家和名人的名字,但它们的效果在 v2 中要弱得多。这可能是由于训练数据的差异。Open AI 的专有数据可能有更多的艺术品和名人照片。他们的数据可能经过高度过滤,因此一切事物和每个人看起来都非常漂亮。
更深入的技术参考文章
Stable Diffusion v1.4 press release
Stable Diffusion v2 press release
Stable Diffusion v2.1 press release
High-Resolution Image Synthesis with Latent Diffusion Models – 介绍Stable Diffusion的研究论文
The Illustrated Stable Diffusion – 有关模型更细节的介绍
Stable Diffusion 2 – v2版本模型官网
Diffusion Models Beat GANs on Image Synthesis – 分类器引导论文
Classifier-Free Diffusion Guidance](Classifier-Free Diffusion Guidance – 无分类器引导论文
Deep Unsupervised Learning using Nonequilibrium Thermodynamics – 逆扩散过程介绍
原作者: Sparrowfc https://zhuanlan.zhihu.com/p/616195288
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!