fbpx

PirateDiffusion Leitfaden

Pirate Diffusion

pirate diffusion Logo

Übersicht

Pirate Diffusion von Graydient AI ist der mächtigste Bot auf Telegram. Es ist ein multimodaler Bot, d.h. er verarbeitet große Sprachmodelle und tausende von Bildmodellen wie FLUX, Pony und SDXL und auch Videos wie LTX LightTricks.

 

Unglaublicher Wert

Im Gegensatz zu anderen generativen KI-Diensten sind keine "Token" oder "Credits" erforderlich. PirateDiffusion ist für die unbegrenzte Nutzung konzipiert, lizenzfrei und wird mit Graydient's webUI gebündelt.

 

Warum einen Bot verwenden?

Es ist extrem schnell und leichtgewichtig auf dem Handy, und Sie können es allein oder in Gruppen von Fremden oder mit Freunden verwenden. Unser community erstellt Chat-Makros für leistungsstarke ComfyUI-Workflows, so dass Sie den vollen Nutzen eines Desktop-Rendering-Ergebnisses von einem einfachen Chat-Bot erhalten. Das ist der Wahnsinn. 

 

Was kann sie sonst noch tun?

 

Images, Video, und LLM chats. Es kann so ziemlich alles. 

Sie können 4k images mit ein paar Tastenanschlägen ohne GUI erstellen. Sie können alle wichtigen Funktionen von Stable Diffusion per Chat nutzen. Einige Funktionen erfordern eine visuelle Schnittstelle, für die eine Webseite angezeigt wird (stable2go-Integration)

Erstellen Sie Ihren privaten Bot oder treten Sie Gruppen bei, um zu sehen, was andere Leute erstellen. Sie können auch thematische bots wie /animebot erstellen, die unsere PollyGPT LLMs mit StableDiffusion-Modellen verbinden, und mit ihnen chatten, um Ihnen beim Erstellen zu helfen! Erstellen Sie eine workflow , die völlig einzigartig für Sie ist, indem Sie Loadouts, recipe (Makros) Widgets (visueller Gui Builder) und benutzerdefinierte bots verwenden. Das macht eine Menge aus!

Die Entstehungsgeschichte

Der Name Pirate Diffusion stammt von dem im Oktober 2022 durchgesickerten Modell Stable Diffusion 1.5, das quelloffen. Wir bauten den ersten Stable Diffusion-Bot auf Telegram und tausende von Leuten kamen dazu, und so haben wir angefangen. Aber um es ganz klar zu sagen: Es geht hier nicht um Piraterie, wir mochten nur den Namen. Trotzdem sagten genug Leute (und unsere Bank), dass der Name ein bisschen viel sei, also haben wir unser Unternehmen in "Graydient" umbenannt, aber wir lieben Pirate Diffusion. Es zieht lustige, interessante Leute an.

Happy New Year – we are testing video generation!  

If you’re a member of Graydient Plus, you can try our beta today. There are two video modes currently available – text to video, and image to video.  To use video, call the /workflow command or the shortcut /wf.  There are five video workflows at this time, which we’ll cover below:
 

Text to video

/wf /run:video cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
 
The underlying model is called LTX or LightTricks Video.  In LTX, the structure of the prompt matters a lot. A short prompt will result in a static image. A prompt with too many actions and instructions will cause the video to pan to different random rooms or characters.  
Best Practices: How to make your images move cohesively
 
We recommend a prompt pattern like this:
  1. First describe what the camera is doing or who its following. For example, a low angle camera zoom, an overhead camera, a slow pan, zooming out or away, etc.
  2. Next describe the subject and one action they are performing onto what or whom. This part takes practice!  In the example above, notice that Ronald eating the burger came after the camera and scene setup
  3. Describe the scene.  This helps the AI “segment” the things that you want to see. So in our example, we describe the clown costume and background.
  4. Give supporting reference material.  For example, say “This looks like a scene from a movie or TV show”
  5. You can specify a Flux lora to control the art direction or character likeness. Add this to the end of the prompt like <muscularwoman-flux>
  6.  You can specify size like /size:468×832 and /guidance to control the “HDR” effect

Additional Workflows

These video workflows are available right now, we’re live!

video  =  Full sized LTX with Flux integration at the first step for loras.  Use case: beautiful videos but short.  Our best looking video workflow, hands down.

video-medium   = Well rounded. Can handle motion well. Doesn’t use loras but its fast and can make longer videos than the flux one.

video-turbo = The fastest, with quality tradeoff.  Best for still subjects and subtle animations.  Can look nice at higher sizes and steps, I like to start my ideas here to see if they will even animate, then move my seed and other settings up the chain.

Image to video

You can also upload a photo and turn it into a video.  To do this, first paste the photo into the chat and click “Reply” as if you’re going to talk to the photo, and then give it a command like this:

/wf /run:animate camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe

There are two levels of this video workflow, which are:

animate   = convert an image to video 

animate-turbo  = same, using small/fast models

Special parameters:

/slot1 = length of the video in frames.  Safe settings are 89, 97, 105, 113, 121, 137, 153, 185, 201, 225, 241, 257.   More is possible but unstable

/slot2 = frames per second.  24 is recommended.  Turbo workflows run at 18 fps but can be changed.  above 24 is cinematic, 30fps looks more realistic.  60fps is possible at low frames but it looks like chipmunk speed.

Limitations:

  • You must be a member of Graydient Plus to try the beta
  • Viele Videobeispiele sind heute im VIP- und Playroom-Kanal verfügbar. Kommen Sie vorbei und senden Sie uns Ihre Ideen, während wir dem Video den letzten Schliff geben.
 
Unten abgebildet: Der Flux "Atomix" workflow aber direktes Prompt-to-Video, kein Img2img Schritt erforderlich.
Probieren Sie eine neue recipe! Tippen Sie /render #quick und Ihre Eingabeaufforderung
Tipp: Verwenden Sie /render #quick - ein Makro, um diese Qualität zu erreichen, ohne Negative zu tippen

Guidance (CFG)

Die Skala Classifier-Free Guidance ist ein Parameter, der steuert, wie genau sich die KI an die Eingabeaufforderung hält; höhere Werte bedeuten, dass sie sich mehr an die Eingabeaufforderung hält. 

Wenn dieser Wert höher eingestellt ist, kann das Bild schärfer erscheinen, aber die KI hat weniger "Kreativität", um die Lücken auszufüllen, so dass Pixel und Störungen auftreten können. 

Ein sicherer Standardwert ist 7 für die gängigsten Basismodelle. Es gibt jedoch spezielle Modelle mit hohem Wirkungsgrad, die eine andere guidance Skala verwenden, die im Folgenden erläutert wird.

SYNTAX

/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate

Wie hoch oder niedrig die guidance eingestellt werden sollte, hängt von dem von Ihnen verwendeten sampler ab. Die Sampler werden weiter unten erklärt. Auch die Menge an steps , die zum "Lösen" eines Bildes zugelassen ist, kann eine wichtige Rolle spielen.

 

Ausnahmen von der Regel 

Typische Modelle folgen diesem guidance und Stufenmuster, aber neuere Modelle mit hohem Wirkungsgrad benötigen weit weniger guidance , um auf die gleiche Weise zu funktionieren, zwischen 1,5 - 2,5. Dies wird im Folgenden erklärt:

Hocheffiziente Modelle

Niedrig Steps, Niedrig Guidance

Die meisten concepts benötigen eine guidance von 7 und 35+ steps , um ein gutes Bild zu erzeugen. Dies ändert sich mit der Einführung von Modellen mit höherem Wirkungsgrad.

Diese Modelle können images in 1/4 der Zeit erstellen und benötigen nur 4-12 steps mit niedrigeren guidance. Sie finden sie unter den Bezeichnungen Turbo, Hyper, LCM, und Lightning im concepts System zu finden und sie sind mit den klassischen Modellen kompatibel. Du kannst sie zusammen mit Loras und Inversions der gleichen Modellfamilie verwenden. Die SDXL-Familie bietet die größte Auswahl (verwenden Sie das Pulldown-Menü, ganz rechts). Juggernaut 9 Lightining ist eine beliebte Wahl.

Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]].  Follow it up with an upscale, and the effects are stunning!

Schauen Sie in die Notizen dieser speziellen Modelltypen, um mehr Details über ihre Verwendung zu erfahren, wie z.B. Aetherverse-XL (unten abgebildet), mit einer guidance von 2,5 und 8 steps , wie unten abgebildet.

VASS (nur SDXL)

Vass ist ein HDR mode für SDXL, das auch die Komposition verbessern und die Farbsättigung reduzieren kann. Manche bevorzugen es, andere vielleicht nicht. Wenn das Bild zu bunt aussieht, versuchen Sie es ohne Refiner (NoFix)

Der Name stammt von Timothy Alexis Vass, einem unabhängigen Forscher, der den latenten Raum des SDXL erforscht hat und interessante Beobachtungen gemacht hat einige interessante Beobachtungen gemacht hat. Sein Ziel ist die Farbkorrektur und die Verbesserung des Inhalts von images. Wir haben seinen veröffentlichten Code angepasst, damit er in PirateDiffusion läuft.

/render a cool cat <sdxl> /vass

Warum und wann Sie es verwenden sollten: Probieren Sie es bei SDXL images aus, die zu gelb oder unscharf sind oder bei denen der Farbbereich eingeschränkt erscheint. Sie sollten eine bessere Lebendigkeit und aufgeräumte Hintergründe sehen.

Beschränkungen: Dies funktioniert nur in SDXL. 

 
 

Mehr Werkzeug (Antwortbefehl)

Das Werkzeug "Mehr" erzeugt Variationen desselben Bildes

Um dasselbe Motiv in leicht abgewandelter Form zu sehen, verwenden Sie das Werkzeug "Mehr". 

EIN FOTO BESCHREIBEN

Aktualisiert! Es gibt jetzt zwei Arten der Beschreibung: CLIP und FLORENCE2

Erzeugen Sie eine Eingabeaufforderung aus einem beliebigen Bild mit Computer Vision mit Describe! Es ist ein "Antwort"-Befehl, also klicken Sie mit der rechten Maustaste auf das Bild, als ob Sie mit ihm sprechen wollten, und schreiben Sie

/describe /florence

Mit dem zusätzlichen Parameter Florence erhalten Sie eine wesentlich detailliertere Eingabeaufforderung. Er verwendet das neue Florence2-Computersichtmodell. /describe selbst verwendet das CLIP-Modell

Beispiel

Widgets starten innerhalb PirateDiffusion