fbpx

PirateDiffusion Guide

Pirate Diffusion

pirate diffusion logo

Vue d'ensemble

Pirate Diffusion de Graydient AI est le bot le plus puissant de Telegram. C'est un bot multimodal, ce qui signifie qu'il gère de grands modèles linguistiques et des milliers de modèles d'images comme FLUX, Pony, et SDXL ainsi que des vidéos comme LTX LightTricks.

 

Une valeur incroyable

Contrairement à d'autres services d'IA générative, aucun "jeton" ou "crédit" n'est requis. PirateDiffusion est conçu pour une utilisation illimitée, libre de droits, et il est fourni avec Graydientet webUI.

 

Pourquoi utiliser un robot ?

Il est extrêmement rapide et léger sur mobile, et vous pouvez l'utiliser en solo ou dans des groupes d'étrangers ou d'amis. Notre site community crée des macros de chat pour les flux de travail puissants de ComfyUI, de sorte que vous obtenez tous les avantages d'un résultat de rendu de bureau à partir d'un simple bot de chat. C'est fou. 

 

Que peut-il faire d'autre ?

 

Images, vidéo, et LLM chats. Il peut faire à peu près tout. 

Vous pouvez créer 4k images en quelques frappes de clavier sans interface graphique. Vous pouvez utiliser toutes les fonctions majeures de Stable Diffusion via le chat. Certaines fonctionnalités nécessitent une interface visuelle, et une page web s'affiche pour celles-ci (intégration de stable2go).

Créez vous-même avec votre bot privé, ou rejoignez des groupes pour voir ce que d'autres personnes sont en train de créer. Vous pouvez également créer des bots thématiques comme /animebot qui relie nos LLM PollyGPT aux modèles StableDiffusion, et discuter avec eux pour vous aider à créer ! Créez un workflow qui vous est totalement propre en utilisant des loadouts, recipe (macros), des widgets (visual gui builder) et des bots personnalisés. Cela fait beaucoup !

Histoire de l'origine

Le nom Pirate Diffusion provient de la fuite du modèle Stable Diffusion 1.5 d'octobre 2022, qui était source ouverte. Nous avons créé le premier bot Stable Diffusion sur Telegram et des milliers de personnes se sont manifestées, et c'est ainsi que nous avons commencé. Mais pour être tout à fait clair : il n'y a pas de piratage en cours ici, nous avons juste aimé le nom. Cependant, un nombre suffisant de personnes (et notre banque) ont trouvé que le nom était un peu exagéré, et nous avons donc rebaptisé notre entreprise "Graydient", mais nous aimons Pirate Diffusion. Il attire des personnes amusantes et intéressantes.

Happy New Year – we are testing video generation!  

If you’re a member of Graydient Plus, you can try our beta today. There are two video modes currently available – text to video, and image to video.  To use video, call the /workflow command or the shortcut /wf.  There are five video workflows at this time, which we’ll cover below:
 

Text to video

/wf /run:video cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
 
The underlying model is called LTX or LightTricks Video.  In LTX, the structure of the prompt matters a lot. A short prompt will result in a static image. A prompt with too many actions and instructions will cause the video to pan to different random rooms or characters.  
Best Practices: How to make your images move cohesively
 
We recommend a prompt pattern like this:
  1. First describe what the camera is doing or who its following. For example, a low angle camera zoom, an overhead camera, a slow pan, zooming out or away, etc.
  2. Next describe the subject and one action they are performing onto what or whom. This part takes practice!  In the example above, notice that Ronald eating the burger came after the camera and scene setup
  3. Describe the scene.  This helps the AI “segment” the things that you want to see. So in our example, we describe the clown costume and background.
  4. Give supporting reference material.  For example, say “This looks like a scene from a movie or TV show”
  5. You can specify a Flux lora to control the art direction or character likeness. Add this to the end of the prompt like <muscularwoman-flux>
  6.  You can specify size like /size:468×832 and /guidance to control the “HDR” effect

Additional Workflows

These video workflows are available right now, we’re live!

video  =  Full sized LTX with Flux integration at the first step for loras.  Use case: beautiful videos but short.  Our best looking video workflow, hands down.

video-medium   = Well rounded. Can handle motion well. Doesn’t use loras but its fast and can make longer videos than the flux one.

video-turbo = The fastest, with quality tradeoff.  Best for still subjects and subtle animations.  Can look nice at higher sizes and steps, I like to start my ideas here to see if they will even animate, then move my seed and other settings up the chain.

Image to video

You can also upload a photo and turn it into a video.  To do this, first paste the photo into the chat and click “Reply” as if you’re going to talk to the photo, and then give it a command like this:

/wf /run:animate camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe

There are two levels of this video workflow, which are:

animate   = convert an image to video 

animate-turbo  = same, using small/fast models

Special parameters:

/slot1 = length of the video in frames.  Safe settings are 89, 97, 105, 113, 121, 137, 153, 185, 201, 225, 241, 257.   More is possible but unstable

/slot2 = frames per second.  24 is recommended.  Turbo workflows run at 18 fps but can be changed.  above 24 is cinematic, 30fps looks more realistic.  60fps is possible at low frames but it looks like chipmunk speed.

Limitations:

  • You must be a member of Graydient Plus to try the beta
  • De nombreux exemples de vidéos sont disponibles aujourd'hui dans le canal VIP et Playroom. Venez passer du temps avec nous et envoyez-nous vos idées pendant que nous mettons la dernière main à la vidéo.
 
Ci-dessous : Le site Flux "Atomix" workflow mais directement de l'invite à la vidéo, sans passer par l'étape Img2img.
Essayez un nouveau recipe! Tapez /render #quick et votre invite
Conseil : Utilisez /render #quick - une macro pour obtenir cette qualité sans avoir à taper des négations.

Guidance (CFG)

L'échelle Classifier-Free Guidance est un paramètre qui détermine dans quelle mesure l'IA suit l'invite ; des valeurs plus élevées signifient une plus grande adhésion à l'invite. 

Lorsque cette valeur est plus élevée, l'image peut paraître plus nette, mais l'IA aura moins de "créativité" pour remplir les espaces, ce qui peut entraîner une pixellisation et des imperfections. 

La valeur par défaut la plus sûre est 7 pour les modèles de base les plus courants. Cependant, il existe des modèles spéciaux à haut rendement qui utilisent une échelle différente ( guidance ), expliquée ci-dessous.

SYNTAX

/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate

Le niveau de réglage du site guidance dépend du site sampler que vous utilisez. Les échantillonneurs sont expliqués ci-dessous. La quantité de steps autorisée pour "résoudre" une image peut également jouer un rôle important.

 

Exceptions à la règle 

Les modèles typiques suivent ce schéma guidance et pas à pas, mais les nouveaux modèles à haut rendement nécessitent beaucoup moins de guidance pour fonctionner de la même manière, entre 1,5 et 2,5. Ceci est expliqué ci-dessous :

Modèles à haut rendement

Faible Steps, Faible Guidance

La plupart des concepts ont besoin d'un guidance de 7 et de 35+ steps pour générer une bonne image. Cette situation est en train de changer avec l'arrivée de modèles plus efficaces.

Ces modèles peuvent créer images en 1/4 de temps, ne nécessitant que 4 à 12 steps avec des guidance inférieurs. Vous pouvez les trouver étiquetés comme Turbo, Hyper, LCM et Lightning dans le système concepts , et ils sont compatibles avec les modèles classiques. Vous pouvez les utiliser avec les Loras et les Inversions de la même famille de modèles. La famille SDXL offre le plus grand choix (utilisez le menu déroulant, tout à droite). Juggernaut 9 Lightining est un choix populaire.

Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]].  Follow it up with an upscale, and the effects are stunning!

Consultez les notes de ces modèles spéciaux pour plus de détails sur leur utilisation, comme l'Aetherverse-XL (illustré ci-dessous), avec un guidance de 2,5 et 8 steps comme illustré ci-dessous.

VASS (SDXL uniquement)

Vass est un HDR mode pour SDXL, qui peut également améliorer la composition et réduire la saturation des couleurs. Certains le préfèrent, d'autres non. Si l'image semble trop colorée, essayez-la sans Refiner (NoFix).

Le nom vient de Timothy Alexis Vass, un chercheur indépendant qui a exploré l'espace latent SDXL et a fait des observations intéressantes. fait des observations intéressantes. Son objectif est de corriger les couleurs et d'améliorer le contenu de images. Nous avons adapté le code qu'il a publié pour qu'il fonctionne dans PirateDiffusion.

/render a cool cat <sdxl> /vass

Pourquoi et quand l'utiliser : Essayez-le sur SDXL images qui est trop jaune, décentré ou dont la gamme de couleurs semble limitée. Vous devriez constater une meilleure vibration et des arrière-plans plus nets.

Limitations : Cette méthode ne fonctionne qu'avec SDXL. 

 
 

Plus d'outils (commande de réponse)

L'outil Plus permet de créer des variations de la même image

Pour voir le même sujet dans des variations légèrement différentes, utilisez l'outil "plus". 

DÉCRIRE UNE PHOTO

Mise à jour ! Il existe maintenant deux modes de description : CLIP et FLORENCE2

Générez une invite à partir de n'importe quelle image grâce à la vision par ordinateur avec Describe ! Il s'agit d'une commande de type "réponse", donc faites un clic droit sur l'image comme si vous alliez lui parler, et écrivez

/describe /florence

Le paramètre supplémentaire Florence permet d'obtenir une invite beaucoup plus détaillée. Il utilise le nouveau modèle de vision artificielle Florence2. /describe utilise le modèle CLIP.

Exemple

Lancer des widgets dans PirateDiffusion