fbpx

PirateDiffusion 指南

Pirate Diffusion

pirate diffusion 徽标

概述

Pirate Diffusion Graydient AI 是 Telegram 上最强大的机器人。它是一个多模式机器人,这意味着它可以处理大型语言模型和数以千计的图像模型(如FLUX 、Pony 和 SDXL),还可以处理视频(如 LTX LightTricks)。

 

难以置信的价值

与其他生成式人工智能服务不同的是,它不需要 "代币 "或 "信用点数"。PirateDiffusion 可无限制使用,免版税,并与Graydient的webUI 捆绑。

 

为什么使用机器人?

它在移动设备上运行速度极快,而且非常轻便,你可以单独使用,也可以在陌生人群组或与朋友一起使用。我们的community 正在为强大的 ComfyUI 工作流程制作聊天宏,因此您可以从简单的聊天机器人中获得桌面渲染结果的全部优势。太疯狂了 

 

它还能做什么?

 

Images、视频和LLM 聊天。它几乎无所不能。 

无需图形用户界面,敲几下键盘就能制作 4kimages 。你可以通过聊天使用所有主要的 Stable Diffusion 功能。有些功能需要可视化界面,它会为此弹出一个网页(与 stable2go 集成)

您可以使用自己的私人机器人进行创作,也可以加入群组,看看其他人在做什么。您还可以创建像 /animebot 这样的主题bots ,将我们的 PollyGPT LLM 与 StableDiffusion 模型连接起来,并与他们聊天,帮助您进行创作!使用 loadouts、recipe (宏)widgets(可视化向导生成器)和自定义bots 创建完全属于你的workflow 。它可以做很多事情!

起源故事

Pirate Diffusion 这个名字来源于 2022 年 10 月泄露的稳定扩散 1.5模型,该模型被 开源.我们在 Telegram 上创建了第一个 Stable Diffusion 机器人,成千上万的人参与其中,我们就这样开始了。但要明确的是:这里没有盗版,我们只是喜欢这个名字。不过,还是有很多人(还有我们的银行)说这个名字有点过了,所以我们把公司更名为"Graydient",但我们喜欢 Pirate Diffusion 。 它吸引了很多有趣的人。

Happy New Year – we are testing video generation!  

If you’re a member of Graydient Plus, you can try our beta today. There are two video modes currently available – text to video, and image to video.  To use video, call the /workflow command or the shortcut /wf.  There are five video workflows at this time, which we’ll cover below:
 

Text to video

/wf /run:video cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
 
The underlying model is called LTX or LightTricks Video.  In LTX, the structure of the prompt matters a lot. A short prompt will result in a static image. A prompt with too many actions and instructions will cause the video to pan to different random rooms or characters.  
Best Practices: How to make your images move cohesively
 
We recommend a prompt pattern like this:
  1. First describe what the camera is doing or who its following. For example, a low angle camera zoom, an overhead camera, a slow pan, zooming out or away, etc.
  2. Next describe the subject and one action they are performing onto what or whom. This part takes practice!  In the example above, notice that Ronald eating the burger came after the camera and scene setup
  3. Describe the scene.  This helps the AI “segment” the things that you want to see. So in our example, we describe the clown costume and background.
  4. Give supporting reference material.  For example, say “This looks like a scene from a movie or TV show”
  5. You can specify a Flux lora to control the art direction or character likeness. Add this to the end of the prompt like <muscularwoman-flux>
  6.  You can specify size like /size:468×832 and /guidance to control the “HDR” effect

Additional Workflows

These video workflows are available right now, we’re live!

video  =  Full sized LTX with Flux integration at the first step for loras.  Use case: beautiful videos but short.  Our best looking video workflow, hands down.

video-medium   = Well rounded. Can handle motion well. Doesn’t use loras but its fast and can make longer videos than the flux one.

video-turbo = The fastest, with quality tradeoff.  Best for still subjects and subtle animations.  Can look nice at higher sizes and steps, I like to start my ideas here to see if they will even animate, then move my seed and other settings up the chain.

Image to video

You can also upload a photo and turn it into a video.  To do this, first paste the photo into the chat and click “Reply” as if you’re going to talk to the photo, and then give it a command like this:

/wf /run:animate camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe

There are two levels of this video workflow, which are:

animate   = convert an image to video 

animate-turbo  = same, using small/fast models

Special parameters:

/slot1 = length of the video in frames.  Safe settings are 89, 97, 105, 113, 121, 137, 153, 185, 201, 225, 241, 257.   More is possible but unstable

/slot2 = frames per second.  24 is recommended.  Turbo workflows run at 18 fps but can be changed.  above 24 is cinematic, 30fps looks more realistic.  60fps is possible at low frames but it looks like chipmunk speed.

Limitations:

  • You must be a member of Graydient Plus to try the beta
  • 今天,VIP 和游戏室频道中提供了许多视频样本。 在我们对视频进行最后润色的同时,欢迎前来游玩并向我们发送您的即时想法。
 
如下图所示:Flux "Atomix"workflow 但直接从提示转为视频,无需 Img2img 步骤。
试试新的recipe ! 键入 /render #quick 和您的提示符
提示:使用/render #quick - 宏,无需键入否定词即可实现这一质量

Guidance (CFG)

无分类器Guidance 标度是一个参数,用于控制人工智能在多大程度上遵循提示;数值越大,表示越遵循提示。 

该值设置得越高,图像看起来就越清晰,但人工智能填充空间的 "创造力 "就越弱,因此可能会出现像素化和毛刺。 

最常见的基本型号的安全默认值为 7。不过,也有一些特殊的高效机型使用不同的guidance 标度,具体说明如下。

SYNTAX

/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate

guidance 的设置高低取决于您使用的sampler 。下文将对采样器进行说明。允许 "解决 "图像的steps 数量也起着重要作用。

 

规则的例外情况 

典型的机型遵循这种guidance 和步进模式,但新型高效机型所需的guidance 要少得多,在 1.5 - 2.5 之间。 下文对此进行了解释:

高效机型

低Steps, 低Guidance

大多数concepts 都需要 7 和 35 以上的guidance steps 才能生成出色的图像。随着更高效型号的出现,这种情况正在发生变化。

这些模型可以在 1/4 的时间内创建images ,只需要 4-12 个steps ,guidance 。您可以找到 标记为 Turbo、Hyper、LCM 和 Lightning 在concepts 系统中,它们与经典模型兼容。您可以将它们与同一型号系列的 Loras 和 Inversions 一起使用。SDXL 系列的选择最多(使用最右侧的下拉菜单)。Juggernaut 9 Lightining 是最受欢迎的选择。

Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]].  Follow it up with an upscale, and the effects are stunning!

请查阅这些特殊型号的注释,了解更多使用细节,例如 Aetherverse-XL(如下图),guidance ,如下图所示,2.5 和 8steps 。

VASS(仅限 SDXL)

Vass 是 SDXL 的 HDRmode ,它还可以改善构图和降低色彩饱和度。有些人喜欢,有些人可能不喜欢。如果图像看起来过于艳丽,请尝试不使用 Refiner (NoFix)

这个名字来自独立研究员蒂莫西-亚历克西斯-瓦斯(Timothy Alexis Vass)。 发现了一些有趣的现象.他的目标是色彩校正和改进images 的内容。我们对他发布的代码进行了改编,以便在PirateDiffusion 中运行。

/render a cool cat <sdxl> /vass

为什么以及何时使用:在 SDXLimages 上试用,如果照片太黄、偏离中心或色彩范围感觉有限。你会看到更好的鲜艳度和更干净的背景。

限制:此功能仅适用于 SDXL。 

 
 

更多工具(回复命令)

更多 "工具可创建同一图像的各种变体

要查看同一主题的不同变化,请使用 "更多 "工具。 

描写

已更新! 现在有两种描述模式:CLIP 和 FLORENCE2

利用 Describe 的计算机视觉功能,从任何图像中生成提示! 这是一个 "回复 "命令,所以请右键单击图像,就像要与图像对话一样,然后写下

/describe /florence

附加的Florence 参数可提供更详细的提示。/describe 本身使用的是 CLIP 模型。

示例

在PirateDiffusion