探索 StableDiffusion:生成高质量图片学习及应用

lxf2023-05-11 00:50:18

一、介绍StableDiffusion

1.1 StableDiffusion是什么

Stable Diffusion是一种潜在的文本到图像扩散模型,能够生成逼真的图像,只需任何文本输入,就可以自主自由创造漂亮的图像,使众多不会拍照的人在几秒钟内创造出惊人的图片。 StableDiffusion可以生成不同的图片风格,比如:Anime 动画,realistic 写实,Landscape 风景,Fantasy 奇幻,Artistic 艺术。 还有很多其他的风格,都可以在网上看到。

1.2 StableDiffusion主要术语

有一些图示来直观理解StableDiffusion,比较深奥,不过多解释:

zhuanlan.zhihu.com/p/599887666

1.2.1 模型

stable-diffusion-art.com/models/

网上可以下载到的StableDiffusion模型非常多。只需要记得这些都是SD模型的微调版本即可,这些不同版本的StableDiffusion模型都是基于相同的算法和原理,并且都可以用于生成高质量的图像、音频、视频等数据。具体选择哪个版本取决于应用场景和具体需求。

以下是常见模型,以及说明

***说明案例
Stable Diffusion v1.4, v1.5, v1.5 inpainting and v2.1, v2 depth这些都是通用的模型,可以用于训练其它模型;探索 StableDiffusion:生成高质量图片学习及应用
F222F222最初是为生成裸体图像而训练的;但人们发现它在生成具有正确身体部位关系的美丽女性肖像方面也很有效果。F222适合肖像画,它有很高的生成裸体图像的倾向。在提示中记得加上“dress”等提示符探索 StableDiffusion:生成高质量图片学习及应用
Anything v3Anything V3可生成高质量的动漫风格图像。您可以在文本提示中使用danbooru标签(如1girl,white hair)。 适用于将名人塑造成动漫风格,然后与插画元素无缝融合。探索 StableDiffusion:生成高质量图片学习及应用
其它:DreamShaper:经过微调,适用于介于真实照片和计算机图形之间的肖像插画风格。ChilloutMix:用于生成亚洲女性的模型,类似于F222Robo Diffusion:把物体变为机器人风格

也可以自己做模型的合并,在StableDiffusion的GUI界面如下操作即可:

  • 使用 AUTOMATIC1111 GUI 合并两个模型,转到 Checkpoint Merger 选项卡,在 Primary model (A) 和 Secondary model (B) 中选择要合并的两个模型。
  • 调整乘数 (M) 来调整两个模型的相对权重。将其设置为 0.5 将以相等重要性合并两个模型。
  • 按下运行按钮后,新合并的模型就可以用了。

探索 StableDiffusion:生成高质量图片学习及应用

1.2.2 微调模型:Embeding && Lora && Hypernetwork

  • CheckPoint:这些是真正稳定的扩散模型。它们包含生成图像所需的所有内容,不需要额外的文件。它们通常很大,大小为2-7 GB。本文的主题是它们。

  • Embeding:也称为Textual inversions。它们是定义新关键词以生成新对象或样式的小文件。通常为10-100 KB。您必须与CheckPoint模型一起使用。

  • LoRA:它们是用于修改样式的检查点模型的小补丁文件。它们通常为10-200 MB。您必须与CheckPoint模型一起使用。 也是用于给先有模型做一些微小的改变; 可以对原有模型做补丁,然后通过关键词触发风格,人物。

  • Hypernetwork:它们是添加到CheckPoint模型的附加网络模块。它们通常为5-300 MB。您必须与CheckPoint模型一起使用。

1.2.3 ControlNet 控制姿势

ControlNet是一种稳定的扩散模型可以复制作品和人体姿势。 想要使用的话再扩展中安装sd-webui-controlnet扩展即可。

正常情况下我们想要控制人物的姿势是十分困难的,并且姿势随机,而ControlNet解决了这个问题。它强大而多功能,可以与任何扩散模型一起使用。

主要作用:

  • 边缘检测,家具摆放等

  • 人体姿势复制

可用的模型以及说明:

模型名称说明案例
OpenPose检测人类的关键点,如头部、肩膀、手等的位置。它对于复制人类姿势很有用,但不包括其他细节,如服装、发型和背景。探索 StableDiffusion:生成高质量图片学习及应用
Canny是一个通用的、老派的边缘检测器。它可以提取图像的轮廓。它对于保留原始图像的构图非常有用。探索 StableDiffusion:生成高质量图片学习及应用
Straight line它适用于提取具有直边轮廓的内部设计、建筑物、街景、相框和纸张边缘。探索 StableDiffusion:生成高质量图片学习及应用
HED擅长像实际人一样生成轮廓。根据ControlNet的作者,HED适用于重新着色和重新风格化图像。探索 StableDiffusion:生成高质量图片学习及应用
Scribbles把你涂鸦的东西变成一张图片!探索 StableDiffusion:生成高质量图片学习及应用

1.2.4 抽样算法

不同抽样算法的生成时间对比:

探索 StableDiffusion:生成高质量图片学习及应用

使用不同的抽样算法生成的图片:

a busy city street in a modern city

探索 StableDiffusion:生成高质量图片学习及应用

1.2.5 Stable Diffusion 主要参数列表

参数名称作用案例
CFG ScaleClassifier Free Guidance scale 控制模型要听话的程度。 值越高,越遵守prompt,但是太高会比较丑。探索 StableDiffusion:生成高质量图片学习及应用
Sampling steps随着steps的增加,图片的质量会提升,一般20质量就已经足够。探索 StableDiffusion:生成高质量图片学习及应用
Batch size每次图片生成的数量,一般来说会单次生成多张图片,然后从中选取一张最好的。
Restore faces面部修复,它是一个后置处理方法,在生成图片后调整面部区域。探索 StableDiffusion:生成高质量图片学习及应用
denoising strength噪声强度,在生成图片的时候,噪声强度越大,生成的内容越随机。

stable-diffusion-art.com/know-these-…

二、如何生成高质量的图片

2.1 什么是prompt?

在StableDiffusion中,"prompt"是指为GPT模型提供输入的文本段落或句子。它是用来引导模型生成有意义、准确的响应的关键因素之一。

2.1.1 好的Prompt结构

  1. Subject (required) 主体

  2. Medium 艺术类别

  3. Style 艺术风格

  4. Artist 艺术家

  5. Website 艺术流派

  6. Resolution 清晰度

  7. Additional details 额外的细节

  8. Color 色彩

同时可以考虑满足以下的条件:

  • 在描述主题时要详细和具体。

  • 使用多个括号()来增强其强度,使用[]来降低。

  • 艺术家的名字是一个非常强的风格修饰符,使用的时候要知道这个是什么风格。

2.1.2 Prompt风格参考

如果不确定要用什么风格,可以去下面的两个地址搜一下对应的风格

  • 关键词检索(laion-aesthetic-6pls):laion-aesthetic.datasette.io/laion-aesth…

  • 艺术风格汇总list of artists for SD:rentry.org/artists_sd-…

  • prompt查询参考:stablediffusionweb.com/prompts

  • 查找Tag:aitag.top/

  • 摄影大师:docs.google.com/spreadsheet…

2.1.3 Prompt调整权重

使用()增加权重,使用[]降低权重;

探索 StableDiffusion:生成高质量图片学习及应用

a (word) - 将对单词的权重增加1.1倍

a ((word)) - 将对单词的权重增加1.21倍(= 1.1 * 1.1)

a [word] - 将对单词的权重减少1.1倍

a (word:1.5) - 将对单词的权重增加1.5倍

a (word:0.25) - 将对单词的权重减少4倍(= 1 / 0.25)

a (word) - 在提示中使用字面上的()字符,转义,不使用权重

prompt也可以从某个点位开始考虑生成指定的内容:

[from:to:when]

示例:

a [fantasy:cyberpunk:16] landscape

  • 开始时,模型将绘制一幅fantasy景观。

  • 在第16步之后,它将切换到绘制一幅cyberpunk:景观,继续从fantasy停止的地方绘制。

另外一种语法

[cow|horse] in a field

第1步,提示是“cow”。第2步是“horse”。第3步是“cow”,以此类推。

2.1.4 一些参考prompt

negtive提示符:

ugly, tiling, poorly drawn hands, poorly drawn feet, poorly drawn face, out of frame, extra limbs, disfigured, deformed, body out of frame, bad anatomy, watermark, signature, cut off, low contrast, underexposed, overexposed, bad art, beginner, amateur, distorted face

((((ugly)))), (((duplicate))), ((morbid)), ((mutilated)), [out of frame], extra fingers, mutated hands, ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), ((ugly)), blurry, ((bad anatomy)), (((bad proportions))), ((extra limbs)), cloned face, (((disfigured))), out of frame, ugly, extra limbs, (bad anatomy), gross proportions, (malformed limbs), ((missing arms)), ((missing legs)), (((extra arms))), (((extra legs))), mutated hands, (fused fingers), (too many fingers), (((long neck)))

  • 如何想出好的prompt:stable-diffusion-art.com/how-to-come…

  • 负面提示符:stable-diffusion-art.com/how-to-use-…

2.2 生成高质量的图片进阶

2.2.1 图片修复 (inpaiting)

stable-diffusion-art.com/inpainting-…

1、下载inpaiting模型;

2、可以生成图片后点击send img2img,也可以自己上传到img2img;

3、用刷子进行绘制想要修改的区域,刷完之后,重新生成。

探索 StableDiffusion:生成高质量图片学习及应用

其中的一些参数:

参数说明
Sample step将值设置为如20或25。
Inpaint area“Whole picture”:生成与整个图像连贯的图像。“Only masked” :仅绘制掩蔽区域,但分辨率更高。它对于绘制如脸部之类的细节非常有用。
Batch size一次生成几张照片,设置为4方便挑选最好的结果,设置为1则为了快速看效果
Denoising strength最重要的参数。0.75是一个相对中间的状态。值越大,变化越多。值越小,变化越小
Seed保持默认为-1,-1代表随机生成
Masked content保持Original

模型记得选择SDv1.5修复模型(sd-v1-5-inpainting.ckpt)。

2.2.2 训练自己的模型?

可以直接在Colab云端训练,本地也不用配置环境,训练也很快:

  • colab.research.google.com/github/Lina…

想在本地训练:

  • 参考:github.com/bmaltais/ko…

  • 训练教程:stable-diffusion-art.com/dreambooth/

1、确定要训练模型的唯一标识(起个名字),以及这个模型所对应的类型(class);

比如如果想要训练一个狗的模型,那么狗就是对应的类型(class),然后可以给这个狗起一个名字。名字尽量不要太容易重复;

2、准备把图片制作有有固定尺寸,创建一个目录:<repeat count>_<class> 一次可以训练多个概念

3、开始训练、选择在colab上训练是最方便的方式,本地就省去了很多配置。

以上要准备的内容简单说就是:图片、类型、唯一名字

colab.research.google.com/github/Lina…

按照colab正常操作就行;最终会输出一份训练的模型到你的Google Driver中。然后自己在本地测试:

prompt:a woman, hitokomoru , with a cat on her head lora:hito_komoru_test:1

negtive: (worst quality:2), (low quality:2),disfigured, ugly, old, wrong finger

使用自己的Lora VS 不使用Lora

探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用

还有一次可以训练多个概念,把文件件组织好就行了

探索 StableDiffusion:生成高质量图片学习及应用

2.2.3 图片编辑 pix2pix

编辑配置文件configs/instruct-pix2pix.yaml,改为如下内容:

use_ema: true // 默认为false  
load_ema: true  

denoising 改为1.0, 抽样使用Euler a算法;

探索 StableDiffusion:生成高质量图片学习及应用

常用参数:

  • text cfg: 越大代表生成的内容越接近我们的文字描述
  • image cfg: 越大代表越接近我们的原始图片,越小代表可以越不按照原始图片生成

探索 StableDiffusion:生成高质量图片学习及应用

下面是一些常用的指令模板

  • Change the Style to (an artist or style name)

  • Have her/him (doing something)

  • Make her/him look like (an object or person)

  • Turn the (something in the photo) into a (new object)

  • Add a (object)

  • Add a (object) on (something in the photo)

  • Replace the (object) with (another object)

  • Put them in (a scene or background)

  • Make it (a place, background or weather)

  • Apply (a emotion or something on a person)

  • 有时候重新表达指令可以改善结果(例如,“turn him into a dog”与“make him a dog”与“as a dog”)。

  • 增加steps的值有时可以改善结果。

  • 人脸看起来奇怪?

    • Stable Diffusion自编码器在图像中人脸较小的情况下会有问题。尝试: 裁剪图像,使人脸在画面中占据更大的部分。

资料地址:

  • 模型下载地址:huggingface.co/timbrooks/i…

  • 线上体验地址:huggingface.co/spaces/timb…

2.2.4 使用脚本

Stable Diffusion的webUI中默认有一些脚本,可以方便我们尝试一些不同的生成方式,

探索 StableDiffusion:生成高质量图片学习及应用

脚本名称说明案例
Prompt matrix使用 | 字符分隔多个提示,系统会为每个组合生成一张图片。例如:a busy city street in a modern city|illustration|cinematic lighting会生成:a busy city street in a modern citya busy city street in a modern city, illustrationa busy city street in a modern city, cinematic lightinga busy city street in a modern city, illustration, cinematic lighting探索 StableDiffusion:生成高质量图片学习及应用
SD upscale使用RealESRGAN / ESRGAN改进原有的图像探索 StableDiffusion:生成高质量图片学习及应用
X/Y/Z plot同时创建多张图片,支持我们验证不同参数对生成内容的影响。探索 StableDiffusion:生成高质量图片学习及应用
Prompts from file or textbox使用此脚本可以创建一个作业列表,这些作业将按顺序执行。--prompt "photo of sunset" --prompt "photo of sunset" --negative_prompt "orange, pink, red, sea, water, lake" --width 1024 --height 768 --sampler_name "DPM++ 2M Karras" --steps 10 --batch_size 2 --cfg_scale 3 --seed 9 --prompt "photo of winter mountains" --steps 7 --sampler_name "DDIM" --prompt "photo of winter mountains" --width 1024探索 StableDiffusion:生成高质量图片学习及应用
Loopback在img2img中选择loopback脚本可以让你自动将输出图像作为下一批输入。相当于保存输出图像,并用它替换输入图像。Batch count控制你可以得到多少次迭代。探索 StableDiffusion:生成高质量图片学习及应用
outpaiting扩展了原始图像并填充了创建的空白空间。可以在原始图像周边继续扩充新的空白区;A recipe for a good outpainting is a good prompt that matches the picture, sliders for denoising and CFG scale set to max, and step count of 50 to 100 with Euler ancestral or DPM2 ancestral samplers.好的outpaing是把denoising和CFG都设置到最大,然后把step设置在50以上。探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用

2.2.5 常见生成人物问题与处理

问题解决方案案例
两个头的问题,生成的图片有两个人头;图片比例改为 1:1多次生成,只是会多花一些时间..添加提示词,改为全身照:standing,long dress,legs,shoes探索 StableDiffusion:生成高质量图片学习及应用
面部有问题,面部不好看勾选face restore或者使用VAE也可以探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用
生成的手指多了,少了;使用inpaiting,将多余的部分mask下,然后重新生成mask区域的内容;探索 StableDiffusion:生成高质量图片学习及应用

2.3、StableDiffusion生成图片演示

2.3.1 水底美女文字生成 text2img

水下摄影肖像,iu1,裙子,美丽的详细女孩,极其详细的眼睛和脸,美丽的详细眼睛,闭着嘴,黑色的头发,锁骨,裸露的肩膀,长睫毛,飘逸的头发,气泡,阳光穿过水面,逼真,照片般的真实感,由泰德·格兰博拍摄,最高品质。

正面提示:underwater photography portrait, iu1, dress, beautiful detailed girl, extremely detailed eyes and face, beautiful detailed eyes, closed mouth, black hair, collarbone, bare shoulders, longeyelashes, floating hair, bubbles, sun light breaking through water surface, realistic, photorealistic, by ted grambeau, best quality

lora:iu_V35:0.8

反面提示:(worst quality:2), (low quality:2), (normal quality:2) , goggles, sun glasses, hand, extra fingers, fewer fingers, strange fingers, bad hand

探索 StableDiffusion:生成高质量图片学习及应用

参数参数说明
CFG scale8值越大,越符合你的prompt,范围为1~30;默认为7.个人测试:5以下看起来不好看
Sampling steps20理论上越大,图片质量越高,但是可能会带来模糊
Image size512×512
Seed-1
Face restorationCodeformer勾选面部修复
Sampling methodDPM++ 2M Karas
ModelF222默认是SD模型,可以下载这个模型,F222主要用在女性身材生成上比较擅长:huggingface.co/acheong08/f…
微调模型Lora iuhttps://civitai.com/models/11722/iu

我做的事情:

1、下载并使用F222模型;

2、参考其他水底美女提示符,修改人物生成要用的人物;

3、微调提示符,多次生成;

2.3.2 西湖风景后期处理 img2img

原始照片:

探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用

探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用

生成prompt:

第一张prompt: ((Sunset)) , (Lake Gold) , Boat Center, Mountain, Tree in left, realistic, photorealistic, , 8K,Wide-angle, (expansive:1.5) , a combination of red, orange, pink, and purple.

negtive: (worst quality:2), (low quality:2)

第二张:a sunset over a body of water with a tree branch hanging over it and the sun reflecting in the water, a photo, Arthur Pan, dau-al-set, tranquil

第三张:two ducks swimming in a pond with fish in the water and a fish in the water behind them,, an impressionist painting, Emperor Huizong of Song, cloisonnism, tone mapping

第四张:a field of colorful flowers with green stems and yellow and red flowers in the middle of the field,, a jigsaw puzzle, Bob Thompson, color field, rich vivid colors

探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用

探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用

2.3.3 人像卡通化测试 img2img

prompt:a young man holding a durian fruit in his hand , portrait ,detailed eyes, hyperrealistic

negtive prompt: (worst quality:2), (low quality:2),disfigured, ugly, old

模型:AnythingV3;

Denoising strength从0.1依次升高,第一张为原图;

探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用

Denoising strength: 0.4~0.7(可以看到从0.5的噪声强度开始,AI已经开始自由发挥了,虽然也会参考原图)

探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用

探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用

Denoising strength: 0.8~0.9 (基本完全自由发挥)

探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用

依旧是上个原图,换为midjourney v4模型,Denoising strength测试0.2, 0.4, 0.6, 0.8

相同的提示词,换个模型之后整体风格大变;

探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用

探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用

2.3.4 图片编辑测试 pix2pix

TextCFG固定:7.5,调整ImageCFG;

Put him in beach

探索 StableDiffusion:生成高质量图片学习及应用

探索 StableDiffusion:生成高质量图片学习及应用

2.3.5 控制人物姿势 ControlNet

提示:A girl, showing her muscles, detailed face , realistic ,8k lora:chilloutmixss30_v30:1

negtive prompht: (worst quality:2), (low quality:2),disfigured, ugly, old,nsfw

除了控制姿势,还可以控制人物的表情,这里我们只是控制人物的姿势;

探索 StableDiffusion:生成高质量图片学习及应用

探索 StableDiffusion:生成高质量图片学习及应用探索 StableDiffusion:生成高质量图片学习及应用

2.3.7 图片Inpaiting测试 img2img

探索 StableDiffusion:生成高质量图片学习及应用

给“模特”戴项链:

A girl, (necklace:1.5), showing her muscles, detailed face , realistic ,8k lora:chilloutmixss30_v30:1

探索 StableDiffusion:生成高质量图片学习及应用

给“模特”戴墨镜:

A girl, (sunglasses:1.5), showing her muscles, detailed face , realistic ,8k lora:chilloutmixss30_v30:1

探索 StableDiffusion:生成高质量图片学习及应用

三、StableDiffusion在实际应用中的案例

3.1 个人应用

  • 娱乐,头像、图片加工(不同风格处理)、创作新的场景(尝试一些场景,然后告诉SD)

  • 快速创建艺术作品、设计产品原型

3.2 商业应用

  • 设计工具,帮助设计师快速创建产品原型、样式和艺术作品

  • 营销工具,帮助企业快速创建逼真的广告海报、产品展示图、电影场景等,提高营销效果。

  • 个性化定制,个性化定制平台中,帮助消费者快速创建个性化产品,例如定制T恤、鞋子等

  • 教育上,创新教育,虚拟实验,只需要有想象力就可以生成对应的图片

3.3 业务场景

探索 StableDiffusion:生成高质量图片学习及应用

四、探讨StableDiffusion与AIGC未来的发展趋势

将概念扩大不仅是生成图片,而是人工智能生成内容的话,参开ChaGPT的回答,在未来人工智能技术可能的发展方向和影响;

4.1 媒体行业和广告行业

人工智能内容生成技术可以用于新闻、报道、评论等方面,帮助媒体机构更快速、高效地生成内容。同时,它也可以用于广告创意、广告文案等方面,帮助广告公司更好地推广产品和服务。

4.2 游戏行业和教育行业

人工智能内容生成技术可以用于游戏角色、游戏关卡等方面,帮助游戏公司更好地设计和开发游戏。此外,它还可以用于教学资源的生成和个性化教学,例如生成教材、课件、试题等。

4.3. 金融行业和医疗行业

人工智能内容生成技术可以用于金融报告、分析和预测,例如生成金融新闻报道、投资报告等。在医疗行业中,它可以用于医疗报告和病历记录,例如生成病历记录、医学报告等。

4.4. 法律行业和建筑行业

人工智能内容生成技术可以用于法律文件和合同的生成,例如生成合同、法律文书等。在建筑行业中,它可以用于建筑设计和规划,例如生成建筑设计图纸、规划方案等。

4.5. IT行业

人工智能内容生成技术在IT行业中的应用非常广泛,可以将其分为以下几个子类别:

a. 内容创作

人工智能内容生成技术可以用于互联网内容的自动化生成,例如自动化生成新闻报道、博客文章、社交媒体内容等,从而提高效率和质量。

b. 搜索引擎

人工智能内容生成技术可以用于搜索引擎的优化和改进,例如生成更好的搜索结果、提高搜索的准确性和速度等。

c. 个性化推荐

人工智能内容生成技术可以用于个性化推荐系统的优化和改进,例如生成更符合用户兴趣和需求的推荐内容。

d. 聊天机器人

人工智能内容生成技术可以用于聊天机器人的开发和优化,例如生成更自然、流畅的对话内容,提升用户体验。

e. 数据分析

人工智能内容生成技术可以用于大数据分析和处理,例如自动生成数据报告、分析结果等。

f. 软件开发

人工智能内容生成技术可以用于自动生成代码文档、测试用例等,从而提高软件开发的效率和质量。

g. 安全领域

人工智能内容生成技术可以用于网络安全和数据安全领域,例如自动生成安全报告、分析网络攻击等。

h. 人机交互

人工智能内容生成技术可以用于改善人机交互体验,例如自动生成UI界面、语音交互内容等。

i. 云计算

人工智能内容生成技术可以用于优化云计算服务,例如自动生成云计算资源规划、监控报告等。

五、总结

这里主要介绍了 StableDiffusion在图片生成上的内容,然后详细说明了StableDiffusion 的主要术语和参数,并探讨了如何使用 prompt 和高级技巧(如图像修复、训练自定义模型和图像编辑)来生成高质量的图片。最后设想了一些 StableDiffusion 在个人和商业领域的实际应用案例,讨论了它在媒体、游戏、金融、法律、IT 等行业的未来发展趋势。

最后,我们正处于 AIGC的时代,这些新技术正在改变我们的生活和工作方式,为我们带来前所未有的机遇和挑战。积极拥抱这些新技术,抓住时代的机遇,不断学习和适应新的变化。不管以后什么行业,AIGC 技术都将发挥越来越重要的作用。尽早探索未知的领域,开创更好的未来!

相关资源

  • 免费的SD网站:stable-diffusion-art.com/free-ai-ima…

  • stable diffusion webui:github.com/AUTOMATIC11…

  • 关键词检索(laion-aesthetic-6pls):laion-aesthetic.datasette.io/laion-aesth…

  • 艺术风格汇总list of artists for SD:rentry.org/artists_sd-…

  • 艺术家作品列表:docs.google.com/spreadsheet…

  • 提示语辅助生成promptoMANIA:promptomania.com/

  • Textual Inversion Embeddings:cyberes.github.io/stable-diff…

  • Stable Diffusion特性官方介绍:github.com/AUTOMATIC11…

  • AI作品参考:

    • Playground AI:playgroundai.com/
  • Lexica:lexica.art/

  • krea:www.krea.ai/

  • 模型下载:

    • Civitai:civitai.com/
  • Hugging Face:huggingface.co/models

本网站是一个以CSS、JavaScript、Vue、HTML为核心的前端开发技术网站。我们致力于为广大前端开发者提供专业、全面、实用的前端开发知识和技术支持。 在本网站中,您可以学习到最新的前端开发技术,了解前端开发的最新趋势和最佳实践。我们提供丰富的教程和案例,让您可以快速掌握前端开发的核心技术和流程。 本网站还提供一系列实用的工具和插件,帮助您更加高效地进行前端开发工作。我们提供的工具和插件都经过精心设计和优化,可以帮助您节省时间和精力,提升开发效率。 除此之外,本网站还拥有一个活跃的社区,您可以在社区中与其他前端开发者交流技术、分享经验、解决问题。我们相信,社区的力量可以帮助您更好地成长和进步。 在本网站中,您可以找到您需要的一切前端开发资源,让您成为一名更加优秀的前端开发者。欢迎您加入我们的大家庭,一起探索前端开发的无限可能!