Bloqueur de Javascript détecté

Veuillez nous mettre temporairement en pause ou nous inscrire sur la liste blanche pour créer un compte.

Si vous avez ouvert notre lien à partir d'une application, cherchez les 3 points en haut à droite pour ouvrir notre page dans votre navigateur. Nous n'affichons pas de publicités et ne vendons/partageons pas vos données, mais notre site web nécessite Javascript pour fonctionner correctement. Nous vous remercions ! -Équipe Graydient

PirateDiffusion Guide

Pirate Diffusion

pirate diffusion logo

Vue d'ensemble

Pirate Diffusion de Graydient AI est le bot le plus puissant de Telegram. Il s'agit d'un bot multimodal, ce qui signifie qu'il gère de grands modèles linguistiques comme DeepSeek et Llama 3.3, des dizaines de milliers de modèles d'images comme FLUX, Stable Diffusion 3.5, AuraFlow, Pony et SDXL, ainsi que des modèles vidéo comme Hunyuan et LightTricks (LTX).

 

Une valeur incroyable

Contrairement à d'autres services d'IA générative, aucun "jeton" ou "crédit" n'est requis. PirateDiffusion est conçu pour une utilisation illimitée, libre de droits, et il est fourni avec Graydientet webUI.

Pourquoi utiliser un robot ?

Il est extrêmement rapide et léger sur mobile, et vous pouvez l'utiliser en solo ou dans des groupes d'étrangers ou d'amis. Notre site community crée des macros de chat pour les flux de travail puissants de ComfyUI, de sorte que vous obtenez tous les avantages d'un résultat de rendu de bureau à partir d'un simple bot de chat. C'est fou. 

 

Que peut-il faire d'autre ?

 

Images, vidéo, et LLM chats. Il peut faire à peu près tout. 

Vous pouvez créer des images 4k en quelques frappes sans interface graphique. Vous pouvez utiliser toutes les principales fonctions de Stable Diffusion via le chat. Certaines fonctionnalités nécessitent une interface visuelle, et une page web s'affiche pour celles-ci (intégration Unified WebUI ).

Créez vous-même avec votre bot privé, ou rejoignez des groupes pour voir ce que d'autres personnes sont en train de créer. Vous pouvez également créer des bots thématiques comme /animebot qui relie nos LLM PollyGPT aux modèles StableDiffusion, et discuter avec eux pour vous aider à créer ! Créez un workflow qui vous est totalement propre en utilisant des loadouts, recipe (macros), des widgets (visual gui builder) et des bots personnalisés. Cela fait beaucoup !

Histoire de l'origine

Le nom Pirate Diffusion provient de la fuite du modèle Stable Diffusion 1.5 d'octobre 2022, qui était source ouverte. Nous avons créé le premier bot Stable Diffusion sur Telegram et des milliers de personnes se sont manifestées, et c'est ainsi que nous avons commencé. Mais pour être tout à fait clair : il n'y a pas de piratage en cours ici, nous avons juste aimé le nom. Cependant, un nombre suffisant de personnes (et notre banque) ont trouvé que le nom était un peu exagéré, et nous avons donc rebaptisé notre entreprise "Graydient", mais nous aimons Pirate Diffusion. Il attire des personnes amusantes et intéressantes.

La génération illimitée de vidéos est disponible pour les membres Plus !  

Si vous êtes membre de Graydient Plus, vous pouvez essayer notre version bêta dès aujourd'hui. Deux modes vidéo sont actuellement disponibles : texte-vidéo et image-vidéo. Pour utiliser la vidéo, appelez la commande /workflow ou le raccourci /wf. Il existe actuellement cinq flux de travail vidéo, que nous décrivons ci-dessous :
 

Du texte à la vidéo

/wf /run:video cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
 
PirateDiffusion soutient Hunyuan et LightTricks / LTX vidéos et loras ! Nous ajoutons plusieurs modèles de vidéos et vous pouvez les utiliser de manière illimitée dans le cadre de notre service, ainsi qu'une formation illimitée aux images et aux loras.

Dans LTX, la structure de l'invite a beaucoup d'importance. Une invite courte produira une image statique. Une invite comportant trop d'actions et d'instructions entraînera un panoramique de la vidéo vers différentes pièces ou différents personnages aléatoires.  
Meilleures pratiques : Comment faire en sorte que votre site images soit cohérent
 
Nous recommandons d'utiliser un modèle d'invite comme celui-ci :
  1. Décrivez d'abord ce que fait la caméra ou qui elle suit. Par exemple, une caméra en contre-plongée zoom, une caméra aérienne, un panoramique lent, un zoom arrière ou un éloignement, etc.
  2. Décrivez ensuite le sujet et une action qu'il effectue sur quoi ou sur qui. Cette partie demande de l'entraînement ! Dans l'exemple ci-dessus, remarquez que Ronald mangeant le hamburger vient après la caméra et la mise en place de la scène
  3. Décrivez la scène. Cela permet à l'IA de "segmenter" les éléments que vous souhaitez voir. Dans notre exemple, nous décrivons le costume et l'arrière-plan du clown.
  4. Donnez des références à l'appui. Par exemple, dites "Cela ressemble à une scène de film ou d'émission de télévision"
  5. You can specify a Flux lora to control the art direction or character likeness. Add this to the end of the prompt like <muscularwoman-flux>
  6.  Vous pouvez spécifier la taille comme /size:468×832 et /guidance pour control l'effet "HDR".

Flux de travail supplémentaires

Ces flux de travail vidéo sont disponibles dès maintenant, nous sommes en direct !

vidéo = LTX pleine grandeur avec Flux intégration au premier pas pour les loras. Cas d'utilisation : vidéos magnifiques mais courtes. Notre meilleure vidéo workflow, de loin.

vidéo-medium = Bien équilibré. Peut bien gérer les mouvements. N'utilise pas de loras mais est rapide et peut faire des vidéos plus longues que celle de flux .

video-turbo = Le plus rapide, avec un compromis sur la qualité. Meilleur pour les sujets immobiles et les animations subtiles. Peut être agréable à regarder à des tailles plus élevées et steps, j'aime commencer mes idées ici pour voir si elles peuvent s'animer, puis déplacer mes seed et autres settings vers le haut de la chaîne.

Il y a aussi des produits épicés, tapez la commande /workflow pour les parcourir tous.

De l'image à la vidéo

Vous pouvez également télécharger une photo et la transformer en vidéo. Pour ce faire, collez d'abord la photo dans le chat et cliquez sur "Répondre" comme si vous alliez parler à la photo, puis donnez-lui une commande comme celle-ci :

/wf /run:animate camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe

Il existe deux niveaux de cette vidéo workflow, qui sont :

animer = convertir une image en vidéo 

animate-turbo = idem, en utilisant des modèles petits/rapides

Paramètres spéciaux :

/slot1 = length de la vidéo en images. Les settings sûrs sont 89, 97, 105, 113, 121, 137, 153, 185, 201, 225, 241, 257. Plus est possible mais instable

/slot2 = images par seconde. 24 est recommandé. Les flux de travail turbo sont exécutés à 18 images par seconde, mais peuvent être modifiés. Au-delà de 24 images par seconde, c'est du cinéma, tandis que 30 images par seconde semblent plus réalistes. 60 images par seconde est possible à un faible nombre d'images, mais cela ressemble à la vitesse d'un tamia.

Limites :

  • Vous devez être membre de Graydient Plus pour essayer la version bêta.
  • De nombreux exemples de vidéos sont disponibles aujourd'hui dans le canal VIP et Playroom. Venez passer du temps avec nous et envoyez-nous vos idées pendant que nous mettons la dernière main à la vidéo.
 
Ci-dessous : Le site Flux "Atomix" workflow mais directement de l'invite à la vidéo, sans passer par l'étape Img2img.
Essayez un nouveau recipe! Tapez /render #quick et votre invite
Conseil : Utilisez /render #quick - une macro pour obtenir cette qualité sans avoir à taper des négations.

Guidance (CFG)

L'échelle Classifier-Free Guidance est un paramètre qui détermine dans quelle mesure l'IA suit l'invite ; des valeurs plus élevées signifient une plus grande adhésion à l'invite. 

Lorsque cette valeur est plus élevée, l'image peut paraître plus nette, mais l'IA aura moins de "créativité" pour remplir les espaces, ce qui peut entraîner une pixellisation et des imperfections. 

La valeur par défaut la plus sûre est 7 pour les modèles de base les plus courants. Cependant, il existe des modèles spéciaux à haut rendement qui utilisent une échelle différente ( guidance ), expliquée ci-dessous.

SYNTAX

/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate

Le niveau de réglage du site guidance dépend du site sampler que vous utilisez. Les échantillonneurs sont expliqués ci-dessous. La quantité de steps autorisée pour "résoudre" une image peut également jouer un rôle important.

 

Exceptions à la règle 

Les modèles typiques suivent ce schéma guidance et pas à pas, mais les nouveaux modèles à haut rendement nécessitent beaucoup moins de guidance pour fonctionner de la même manière, entre 1,5 et 2,5. Ceci est expliqué ci-dessous :

Modèles à haut rendement

Faible Steps, Faible Guidance

La plupart des concepts ont besoin d'un guidance de 7 et de 35+ steps pour générer une bonne image. Cette situation est en train de changer avec l'arrivée de modèles plus efficaces.

Ces modèles peuvent créer images en 1/4 de temps, ne nécessitant que 4 à 12 steps avec des guidance inférieurs. Vous pouvez les trouver étiquetés comme Turbo, Hyper, LCM et Lightning dans le système concepts , et ils sont compatibles avec les modèles classiques. Vous pouvez les utiliser avec les Loras et les Inversions de la même famille de modèles. La famille SDXL offre le plus grand choix (utilisez le menu déroulant, tout à droite). Juggernaut 9 Lightining est un choix populaire.

Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]].  Follow it up with an upscale, and the effects are stunning!

Consultez les notes de ces modèles spéciaux pour plus de détails sur leur utilisation, comme l'Aetherverse-XL (illustré ci-dessous), avec un guidance de 2,5 et 8 steps comme illustré ci-dessous.

VASS (SDXL uniquement)

Vass est un HDR mode pour SDXL, qui peut également améliorer la composition et réduire la saturation des couleurs. Certains le préfèrent, d'autres non. Si l'image semble trop colorée, essayez-la sans Refiner (NoFix).

Le nom vient de Timothy Alexis Vass, un chercheur indépendant qui a exploré l'espace latent SDXL et a fait des observations intéressantes. fait des observations intéressantes. Son objectif est de corriger les couleurs et d'améliorer le contenu de images. Nous avons adapté le code qu'il a publié pour qu'il fonctionne dans PirateDiffusion.

/render a cool cat <sdxl> /vass

Pourquoi et quand l'utiliser : Essayez-le sur SDXL images qui est trop jaune, décentré ou dont la gamme de couleurs semble limitée. Vous devriez constater une meilleure vibration et des arrière-plans plus nets.

Limitations : Cette méthode ne fonctionne qu'avec SDXL. 

 
 

Plus d'outils (commande de réponse)

L'outil Plus permet de créer des variations de la même image

Pour voir le même sujet dans des variations légèrement différentes, utilisez l'outil "plus". 

DÉCRIRE UNE PHOTO

Mise à jour ! Il existe maintenant deux modes de description : CLIP et FLORENCE2

Générez une invite à partir de n'importe quelle image grâce à la vision par ordinateur avec Describe ! Il s'agit d'une commande de type "réponse", donc faites un clic droit sur l'image comme si vous alliez lui parler, et écrivez

/describe /florence

Le paramètre supplémentaire Florence permet d'obtenir une invite beaucoup plus détaillée. Il utilise le nouveau modèle de vision artificielle Florence2. /describe utilise le modèle CLIP.

Exemple

Lancer des widgets dans PirateDiffusion