Javascript-Blocker erkannt

Bitte pausieren Sie vorübergehend oder tragen Sie uns in die Whitelist ein, um ein Konto zu erstellen

Wenn Sie unseren Link von einer App aus geöffnet haben, achten Sie auf die 3 Punkte oben rechts, um unsere Seite in Ihrem Browser zu öffnen. Wir zeigen weder Werbung an noch verkaufen/teilen wir Ihre Daten, aber unsere Website benötigt Javascript, um richtig zu funktionieren. Vielen Dank! -Team Graydient

PirateDiffusion Leitfaden

Pirate Diffusion

Is there a Checkpoint, Embedding, LoRA, or other model that you want preloaded?  Request a model install

pirate diffusion Logo

Übersicht

Pirate Diffusion by Graydient AI is the most powerful bot on Telegram. It is a multi-modal bot, meaning that it handles large language models like DeepSeek and Llama 3.3, tens of thousands of image models like HiDream, Chroma, FLUX, Stable Diffusion 3.5, AuraFlow, Pony, and SDXL and also video models like Wan, Hunyuan and LightTricks (LTX).

 

Unglaublicher Wert

Im Gegensatz zu anderen generativen KI-Diensten sind keine "Token" oder "Credits" erforderlich. PirateDiffusion ist für die unbegrenzte Nutzung konzipiert, lizenzfrei und wird mit Graydient's webUI gebündelt.

Warum einen Bot verwenden?

Es ist extrem schnell und leichtgewichtig auf dem Handy, und Sie können es allein oder in Gruppen von Fremden oder mit Freunden verwenden. Unser community erstellt Chat-Makros für leistungsstarke ComfyUI-Workflows, so dass Sie den vollen Nutzen eines Desktop-Rendering-Ergebnisses von einem einfachen Chat-Bot erhalten. Das ist der Wahnsinn. 

 

Was kann sie sonst noch tun?

 

Images, Video, und LLM chats. Es kann so ziemlich alles. 

Sie können images mit ein paar Tastenanschlägen ohne GUI erstellen. Sie können alle wichtigen Funktionen von Stable Diffusion per Chat nutzen. Einige Funktionen erfordern eine visuelle Schnittstelle, für die eine Webseite angezeigt wird (Unified WebUI Integration)

Erstellen Sie Ihren privaten Bot oder treten Sie Gruppen bei, um zu sehen, was andere Leute erstellen. Sie können auch thematische bots wie /animebot erstellen, die unsere PollyGPT LLMs mit StableDiffusion-Modellen verbinden, und mit ihnen chatten, um Ihnen beim Erstellen zu helfen! Erstellen Sie eine workflow , die völlig einzigartig für Sie ist, indem Sie Loadouts, recipe (Makros) Widgets (visueller Gui Builder) und benutzerdefinierte bots verwenden. Das macht eine Menge aus!

Die Entstehungsgeschichte

Der Name Pirate Diffusion stammt von dem im Oktober 2022 durchgesickerten Modell Stable Diffusion 1.5, das quelloffen. Wir bauten den ersten Stable Diffusion-Bot auf Telegram und tausende von Leuten kamen dazu, und so haben wir angefangen. Aber um es ganz klar zu sagen: Es geht hier nicht um Piraterie, wir mochten nur den Namen. Trotzdem sagten genug Leute (und unsere Bank), dass der Name ein bisschen viel sei, also haben wir unser Unternehmen in "Graydient" umbenannt, aber wir lieben Pirate Diffusion. Es zieht lustige, interessante Leute an.

Unbegrenzte Video-Generation ist hier für Plus-Mitglieder!  

Wenn du Mitglied des Video-Plans von Graydientbist, stehen dir verschiedene Video-Workflows zur Verfügung. Es gibt zwei allgemeine Kategorien von Video-Workflows: die Umwandlung eines Prompts in ein Video und die Umwandlung eines vorhandenen Fotos in ein Video. (In Zukunft wollen wir Video-zu-Video hinzufügen, aber das ist noch nicht verfügbar).

Text to music – two modes!

AUTOMATIC LYRICS
 
 /makesong Write a song about being in the face by a California Rattlesnake. Incorporate "dirty sanchez" and "Roosevelt Hoover"
 
MANUAL LYRICS
 
We plan to offer multiple music workflows. The first is called “music-ace” and it works like this:
 
 
/workflow /run:music-ace [verse] gonna make some songs [bridge] gonna make em [chorus] with pirate diffusion yeah!
 
Listen to more samples and get more ai song generation tips in our our detailed music-making blog.

Text zu Video

Stöbern Sie zunächst auf unserer Seite mit den Arbeitsabläufen und suchen Sie nach den Text-zu-Video-Kurznamen. Die beliebtesten sind:
  • WAN 2.1 - das derzeit beste Open-Source-Videomodell, schreibe einen einfachen Prompt und es passiert! WAN scheint eine bessere Prompt-Haftung und -Animation zu haben als HunYuan, aber eine schlechtere Anatomie
  • Boringvideo - erstellt lebensechte, gewöhnliche Videos, die aussehen, als kämen sie von einem iPhone
  • HunYuan - drei Arten, siehe unten auf der workflow , um sie zu finden. Hunyuan erstellt die realistischsten Videos. Je höher die "Q"-Zahl, desto höher ist die Qualität, aber desto kürzer sind die Videos.
  • Video - die, die einfach Video genannt werden, verwenden LTX Lighttricks, ideal für 3D-Cartoons
 
/wf /run:video-hunylora-q8 cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
 

PirateDiffusion unterstützt Hunyuan und LightTricks / LTX Videos und Loras! Wir fügen mehrere Video-Modelle und Sie können sie unbegrenzt als Teil unseres Service, zusammen mit unbegrenzten Bild und unbegrenzte lora Ausbildung verwenden.

In LTX spielt die Struktur der Eingabeaufforderung eine große Rolle. Ein kurzer Prompt führt zu einem statischen Bild. Ein Prompt mit zu vielen Aktionen und Anweisungen führt dazu, dass das Video in verschiedene zufällige Räume oder Figuren schwenkt.

Bewährte Praktiken: Wie Sie Ihre images kohärent bewegen können
 
Wir empfehlen ein Promptmuster wie dieses:
  1. Beschreiben Sie zunächst, was die Kamera tut oder wen sie verfolgt. Zum Beispiel eine Niedrigwinkelkamera zoom, eine Überkopfkamera, ein langsamer Schwenk, Heraus- oder Wegzoomen usw.
  2. Beschreiben Sie dann die Person und eine Handlung, die sie auf was oder wen ausübt. Dieser Teil erfordert Übung! Im obigen Beispiel kommt Ronald, der den Burger isst, erst nach der Kamera- und Szeneneinstellung
  3. Beschreiben Sie die Szene. Dies hilft der KI, die Dinge zu "segmentieren", die Sie sehen wollen. In unserem Beispiel beschreiben wir also das Clownskostüm und den Hintergrund.
  4. Geben Sie unterstützendes Referenzmaterial an. Sagen Sie zum Beispiel: "Das sieht aus wie eine Szene aus einem Film oder einer Fernsehsendung".
  5. You can specify a lora to control the art direction or character likeness. Add this to the end of the prompt like <move-enhancer-huny>

Bild zu Video

Sie können ein Foto hochladen und es in ein Video verwandeln. Es gibt nicht nur einen Befehl - sehen Sie sich die workflow "Animieren" an, um verschiedene Arten von KI-Modellen zu verwenden. Probieren Sie verschiedene Modelle und Prompt-Strategien aus, um diejenige zu finden, die für Ihr Projekt am besten geeignet ist, oder schauen Sie sich im PLAYROOM-Kanal in PirateDiffusion an, was andere mit ihnen erstellt haben.

Das Seitenverhältnis des Videos wird durch das von Ihnen hochgeladene Bild bestimmt, also schneiden Sie es bitte entsprechend zu.

Fügen Sie dazu zunächst das Foto in den Chat ein und klicken Sie auf "Antworten", als ob Sie mit dem Foto sprechen wollten:

/wf /run:animate-wan21 a woman makes silly faces towards the camera
oder versuchen Sie einen der anderen Workflows wie SkyReels:
/wf /run:animate-skyreels camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe

Wir hosten Open-Source-KI-Modelle für Bild-zu-Video. Die beiden beliebtesten sind:

animate-skyreels = Konvertierung eines Bildes in ein Video mit realistischen Videos von HunYuan

animate-ltx90 = verwendet das LightTricks-Modell. Am besten geeignet für 3D-Cartoons und Cinematic Video

Besondere Parameter:

/slot1 = length des Videos in Bildern. Sichere settings sind 89, 97, 105, 113, 121, 137, 153, 185, 201, 225, 241, 257. Mehr ist möglich, aber unstabil

/slot2 = Bilder pro Sekunde. 24 wird empfohlen. Turbo-Workflows laufen mit 18 fps, können aber geändert werden. Mehr als 24 ist filmisch, 30fps sieht realistischer aus. 60 fps sind bei niedrigen Bildern möglich, aber es sieht aus wie Streifenhörnchengeschwindigkeit.

Beschränkungen:

  • Sie müssen ein Mitglied von Graydient Plus sein, um Videos zu erstellen
  • Viele Videobeispiele sind heute im VIP- und Playroom-Kanal verfügbar. Kommen Sie vorbei und senden Sie uns Ihre Ideen, während wir dem Video den letzten Schliff geben.
 
Probieren Sie eine neue recipe! Tippen Sie /render #quick und Ihre Eingabeaufforderung
Tipp: Verwenden Sie /render #quick - ein Makro, um diese Qualität zu erreichen, ohne Negative zu tippen

Guidance (CFG)

Die Skala Classifier-Free Guidance ist ein Parameter, der steuert, wie genau sich die KI an die Eingabeaufforderung hält; höhere Werte bedeuten, dass sie sich mehr an die Eingabeaufforderung hält. 

Wenn dieser Wert höher eingestellt ist, kann das Bild schärfer erscheinen, aber die KI hat weniger "Kreativität", um die Lücken auszufüllen, so dass Pixel und Störungen auftreten können. 

Ein sicherer Standardwert ist 7 für die gängigsten Basismodelle. Es gibt jedoch spezielle Modelle mit hohem Wirkungsgrad, die eine andere guidance Skala verwenden, die im Folgenden erläutert wird.

SYNTAX

/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate

Wie hoch oder niedrig die guidance eingestellt werden sollte, hängt von dem von Ihnen verwendeten sampler ab. Die Sampler werden weiter unten erklärt. Auch die Menge an steps , die zum "Lösen" eines Bildes zugelassen ist, kann eine wichtige Rolle spielen.

 

Ausnahmen von der Regel 

Typische Modelle folgen diesem guidance und Stufenmuster, aber neuere Modelle mit hohem Wirkungsgrad benötigen weit weniger guidance , um auf die gleiche Weise zu funktionieren, zwischen 1,5 - 2,5. Dies wird im Folgenden erklärt:

Hocheffiziente Modelle

Niedrig Steps, Niedrig Guidance

Die meisten concepts benötigen eine guidance von 7 und 35+ steps , um ein gutes Bild zu erzeugen. Dies ändert sich mit der Einführung von Modellen mit höherem Wirkungsgrad.

Diese Modelle können images in 1/4 der Zeit erstellen und benötigen nur 4-12 steps mit niedrigeren guidance. Sie finden sie unter den Bezeichnungen Turbo, Hyper, LCM, und Lightning im concepts System zu finden und sie sind mit den klassischen Modellen kompatibel. Du kannst sie zusammen mit Loras und Inversions der gleichen Modellfamilie verwenden. Die SDXL-Familie bietet die größte Auswahl (verwenden Sie das Pulldown-Menü, ganz rechts). Juggernaut 9 Lightining ist eine beliebte Wahl.

Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]].  Follow it up with an upscale, and the effects are stunning!

Schauen Sie in die Notizen dieser speziellen Modelltypen, um mehr Details über ihre Verwendung zu erfahren, wie z.B. Aetherverse-XL (unten abgebildet), mit einer guidance von 2,5 und 8 steps , wie unten abgebildet.

VASS (nur SDXL)

Vass ist ein HDR mode für SDXL, das auch die Komposition verbessern und die Farbsättigung reduzieren kann. Manche bevorzugen es, andere vielleicht nicht. Wenn das Bild zu bunt aussieht, versuchen Sie es ohne Refiner (NoFix)

Der Name stammt von Timothy Alexis Vass, einem unabhängigen Forscher, der den latenten Raum des SDXL erforscht hat und interessante Beobachtungen gemacht hat einige interessante Beobachtungen gemacht hat. Sein Ziel ist die Farbkorrektur und die Verbesserung des Inhalts von images. Wir haben seinen veröffentlichten Code angepasst, damit er in PirateDiffusion läuft.

/render a cool cat <sdxl> /vass

Warum und wann Sie es verwenden sollten: Probieren Sie es bei SDXL images aus, die zu gelb oder unscharf sind oder bei denen der Farbbereich eingeschränkt erscheint. Sie sollten eine bessere Lebendigkeit und aufgeräumte Hintergründe sehen.

Beschränkungen: Dies funktioniert nur in SDXL. 

 
 

Mehr Werkzeug (Antwortbefehl)

Das Werkzeug "Mehr" erzeugt Variationen desselben Bildes

Um dasselbe Motiv in leicht abgewandelter Form zu sehen, verwenden Sie das Werkzeug "Mehr". 

EIN FOTO BESCHREIBEN

Aktualisiert! Es gibt jetzt zwei Arten der Beschreibung: CLIP und FLORENCE2

Erzeugen Sie eine Eingabeaufforderung aus einem beliebigen Bild mit Computer Vision mit Describe! Es ist ein "Antwort"-Befehl, also klicken Sie mit der rechten Maustaste auf das Bild, als ob Sie mit ihm sprechen wollten, und schreiben Sie

/describe /florence

Mit dem zusätzlichen Parameter Florence erhalten Sie eine wesentlich detailliertere Eingabeaufforderung. Er verwendet das neue Florence2-Computersichtmodell. /describe selbst verwendet das CLIP-Modell

Beispiel

Widgets starten innerhalb PirateDiffusion