检测到 Javascript Blocker

请暂时中止或将我们列入白名单,以便创建账户

如果您通过应用程序打开我们的链接,请在右上角寻找 3 个点,在浏览器中打开我们的页面。我们不会显示广告,也不会出售/分享您的数据,但我们的网站需要使用 Javascript 才能正常运行。谢谢!-Graydient团队

PirateDiffusion 指南

Pirate Diffusion

pirate diffusion 徽标

概述

Pirate Diffusion 是 Telegram 上最强大的机器人。它是一个多模式机器人,这意味着它可以处理 DeepSeek 和 Llama 3.3 等大型语言模型,FLUX、Stable Diffusion 3.5、AuraFlow、Pony 和 SDXL 等数以万计的图像模型,以及 Hunyuan 和 LightTricks (LTX) 等视频模型。

 

难以置信的价值

与其他生成式人工智能服务不同的是,它不需要 "代币 "或 "信用点数"。PirateDiffusion 可无限制使用,免版税,并与Graydient的webUI 捆绑。

为什么使用机器人?

它在移动设备上运行速度极快,而且非常轻便,你可以单独使用,也可以在陌生人群组或与朋友一起使用。我们的community 正在为强大的 ComfyUI 工作流程制作聊天宏,因此您可以从简单的聊天机器人中获得桌面渲染结果的全部优势。太疯狂了 

 

它还能做什么?

 

Images、视频和LLM 聊天。它几乎无所不能。 

无需图形用户界面,敲几下键盘就能制作 4kimages 。你可以通过聊天使用所有主要的 Stable Diffusion 功能。有些功能需要可视化界面,它会为这些功能弹出一个网页(统一WebUI 集成)

您可以使用自己的私人机器人进行创作,也可以加入群组,看看其他人在做什么。您还可以创建像 /animebot 这样的主题bots ,将我们的 PollyGPT LLM 与 StableDiffusion 模型连接起来,并与他们聊天,帮助您进行创作!使用 loadouts、recipe (宏)widgets(可视化向导生成器)和自定义bots 创建完全属于你的workflow 。它可以做很多事情!

起源故事

Pirate Diffusion 这个名字来源于 2022 年 10 月泄露的稳定扩散 1.5模型,该模型被 开源.我们在 Telegram 上创建了第一个 Stable Diffusion 机器人,成千上万的人参与其中,我们就这样开始了。但要明确的是:这里没有盗版,我们只是喜欢这个名字。不过,还是有很多人(还有我们的银行)说这个名字有点过了,所以我们把公司更名为"Graydient",但我们喜欢 Pirate Diffusion 。 它吸引了很多有趣的人。

为 Plus 会员提供无限制的视频再生功能!  

如果您是Graydient Plus 的会员,现在就可以试用我们的测试版。目前有两种视频模式可供选择--文字转视频和图像转视频。 要使用视频,请调用 /workflow 命令或快捷键 /wf。 目前有五种视频工作流程,我们将在下文中介绍:
 

文字转视频

/wf /run:video cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
 
PirateDiffusion 支持浑源和 LightTricks / LTX 视频和萝拉!

在 LTX 中,提示的结构非常重要。简短的提示会产生静态图像。带有过多动作和指令的提示会导致视频随机切换到不同的房间或角色。  
最佳实践:如何让您的images 协调一致地移动
 
我们建议采用这样的提示模式:
  1. 首先描述摄像机在做什么或在跟踪谁。例如,低角度摄像机zoom 、俯拍摄像机、慢镜头、放大或缩小等。
  2. 接下来描述主体以及他们对什么或什么人所做的一个动作。这部分需要练习! 在上面的例子中,注意罗纳德吃汉堡是在摄像机和场景设置之后进行的
  3. 描述场景。 这可以帮助人工智能 "分割 "你想看到的东西。因此,在我们的示例中,我们描述了小丑的服装和背景。
  4. 提供辅助参考资料。 例如,说 "这看起来像是电影或电视剧中的一个场景"。
  5. You can specify a Flux lora to control the art direction or character likeness. Add this to the end of the prompt like <muscularwoman-flux>
  6.  您可以指定尺寸,如/size:468×832 和 /guidance ,以control "HDR "效果

其他工作流程

这些视频工作流程现在就可以使用,我们已经上线!

视频= 全尺寸 LTX,与Flux 集成,用于 loras 的第一步。 使用案例:视频精美但很短。 我们最漂亮的视频workflow ,手到擒来。

视频中等= 技术全面。能很好地处理运动。不使用 Loras,但速度快,能比flux 制作更长的视频。

视频涡轮增压= 速度最快,但要牺牲质量。 最适合静态主题和微妙的动画。 在更大的尺寸和steps 下也很美观,我喜欢从这里开始构思,看看是否能制作出动画,然后再将我的seed 和其他settings 向上移动。

里面还有一些 *ahem* 辛辣的内容,输入 /workflow 命令即可浏览所有内容。

图片转视频

您还可以上传照片并将其转换成视频。 要做到这一点,首先将照片粘贴到聊天中,然后点击 "回复",就像你要与照片对话一样,然后给照片下达这样的命令:

/wf /run:animate camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe

该视频workflow 有两个级别,分别是

动画= 将图像转换成视频 

动画-涡轮= 相同,使用小型/快速模型

特殊参数:

/slot1 =length 视频的帧数。 安全的settings 为 89、97、105、113、121、137、153、185、201、225、241、257。 可能会有更多,但不稳定

/slot2 = 每秒帧数。 建议 24 帧。 Turbo 工作流程以 18 帧/秒运行,但可以更改。24 帧/秒以上是电影画面,30 帧/秒看起来更逼真。 在低帧率下可以达到 60fps,但看起来像花栗鼠的速度。

局限性:

  • 您必须是Graydient Plus 的会员才能试用测试版
  • 今天,VIP 和游戏室频道中提供了许多视频样本。 在我们对视频进行最后润色的同时,欢迎前来游玩并向我们发送您的即时想法。
 
如下图所示:Flux "Atomix"workflow 但直接从提示转为视频,无需 Img2img 步骤。
试试新的recipe ! 键入 /render #quick 和您的提示符
提示:使用/render #quick - 宏,无需键入否定词即可实现这一质量

Guidance (CFG)

无分类器Guidance 标度是一个参数,用于控制人工智能在多大程度上遵循提示;数值越大,表示越遵循提示。 

该值设置得越高,图像看起来就越清晰,但人工智能填充空间的 "创造力 "就越弱,因此可能会出现像素化和毛刺。 

最常见的基本型号的安全默认值为 7。不过,也有一些特殊的高效机型使用不同的guidance 标度,具体说明如下。

SYNTAX

/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate

guidance 的设置高低取决于您使用的sampler 。下文将对采样器进行说明。允许 "解决 "图像的steps 数量也起着重要作用。

 

规则的例外情况 

典型的机型遵循这种guidance 和步进模式,但新型高效机型所需的guidance 要少得多,在 1.5 - 2.5 之间。 下文对此进行了解释:

高效机型

低Steps, 低Guidance

大多数concepts 都需要 7 和 35 以上的guidance steps 才能生成出色的图像。随着更高效型号的出现,这种情况正在发生变化。

这些模型可以在 1/4 的时间内创建images ,只需要 4-12 个steps ,guidance 。您可以找到 标记为 Turbo、Hyper、LCM 和 Lightning 在concepts 系统中,它们与经典模型兼容。您可以将它们与同一型号系列的 Loras 和 Inversions 一起使用。SDXL 系列的选择最多(使用最右侧的下拉菜单)。Juggernaut 9 Lightining 是最受欢迎的选择。

Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]].  Follow it up with an upscale, and the effects are stunning!

请查阅这些特殊型号的注释,了解更多使用细节,例如 Aetherverse-XL(如下图),guidance ,如下图所示,2.5 和 8steps 。

VASS(仅限 SDXL)

Vass 是 SDXL 的 HDRmode ,它还可以改善构图和降低色彩饱和度。有些人喜欢,有些人可能不喜欢。如果图像看起来过于艳丽,请尝试不使用 Refiner (NoFix)

这个名字来自独立研究员蒂莫西-亚历克西斯-瓦斯(Timothy Alexis Vass)。 发现了一些有趣的现象.他的目标是色彩校正和改进images 的内容。我们对他发布的代码进行了改编,以便在PirateDiffusion 中运行。

/render a cool cat <sdxl> /vass

为什么以及何时使用:在 SDXLimages 上试用,如果照片太黄、偏离中心或色彩范围感觉有限。你会看到更好的鲜艳度和更干净的背景。

限制:此功能仅适用于 SDXL。 

 
 

更多工具(回复命令)

更多 "工具可创建同一图像的各种变体

要查看同一主题的不同变化,请使用 "更多 "工具。 

描写

已更新! 现在有两种描述模式:CLIP 和 FLORENCE2

利用 Describe 的计算机视觉功能,从任何图像中生成提示! 这是一个 "回复 "命令,所以请右键单击图像,就像要与图像对话一样,然后写下

/describe /florence

附加的Florence 参数可提供更详细的提示。/describe 本身使用的是 CLIP 模型。

示例

在PirateDiffusion