Bloqueur de Javascript détecté

Veuillez nous mettre temporairement en pause ou nous inscrire sur la liste blanche pour créer un compte.

Si vous avez ouvert notre lien à partir d'une application, cherchez les 3 points en haut à droite pour ouvrir notre page dans votre navigateur. Nous n'affichons pas de publicités et ne vendons/partageons pas vos données, mais notre site web nécessite Javascript pour fonctionner correctement. Nous vous remercions ! -Équipe Graydient

PirateDiffusion Guide

Pirate Diffusion

Is there a Checkpoint, Embedding, LoRA, or other model that you want preloaded?  Request a model install

pirate diffusion logo

Vue d'ensemble

Pirate Diffusion by Graydient AI is the most powerful bot on Telegram. It is a multi-modal bot, meaning that it handles large language models like DeepSeek and Llama 3.3, tens of thousands of image models like HiDream, Chroma, FLUX, Stable Diffusion 3.5, AuraFlow, Pony, and SDXL and also video models like Wan, Hunyuan and LightTricks (LTX).

 

Une valeur incroyable

Contrairement à d'autres services d'IA générative, aucun "jeton" ou "crédit" n'est requis. PirateDiffusion est conçu pour une utilisation illimitée, libre de droits, et il est fourni avec Graydientet webUI.

Pourquoi utiliser un robot ?

Il est extrêmement rapide et léger sur mobile, et vous pouvez l'utiliser en solo ou dans des groupes d'étrangers ou d'amis. Notre site community crée des macros de chat pour les flux de travail puissants de ComfyUI, de sorte que vous obtenez tous les avantages d'un résultat de rendu de bureau à partir d'un simple bot de chat. C'est fou. 

 

Que peut-il faire d'autre ?

 

Images, vidéo, et LLM chats. Il peut faire à peu près tout. 

Vous pouvez créer des images 4k en quelques frappes sans interface graphique. Vous pouvez utiliser toutes les principales fonctions de Stable Diffusion via le chat. Certaines fonctionnalités nécessitent une interface visuelle, et une page web s'affiche pour celles-ci (intégration Unified WebUI ).

Créez vous-même avec votre bot privé, ou rejoignez des groupes pour voir ce que d'autres personnes sont en train de créer. Vous pouvez également créer des bots thématiques comme /animebot qui relie nos LLM PollyGPT aux modèles StableDiffusion, et discuter avec eux pour vous aider à créer ! Créez un workflow qui vous est totalement propre en utilisant des loadouts, recipe (macros), des widgets (visual gui builder) et des bots personnalisés. Cela fait beaucoup !

Histoire de l'origine

Le nom Pirate Diffusion provient de la fuite du modèle Stable Diffusion 1.5 d'octobre 2022, qui était source ouverte. Nous avons créé le premier bot Stable Diffusion sur Telegram et des milliers de personnes se sont manifestées, et c'est ainsi que nous avons commencé. Mais pour être tout à fait clair : il n'y a pas de piratage en cours ici, nous avons juste aimé le nom. Cependant, un nombre suffisant de personnes (et notre banque) ont trouvé que le nom était un peu exagéré, et nous avons donc rebaptisé notre entreprise "Graydient", mais nous aimons Pirate Diffusion. Il attire des personnes amusantes et intéressantes.

La génération illimitée de vidéos est disponible pour les membres Plus !  

Si vous êtes membre du plan vidéo de Graydient, vous pouvez utiliser différents flux de travail vidéo. Il existe deux catégories générales de flux vidéo : la transformation d'un message en vidéo et la transformation d'une photo existante en vidéo. (À l'avenir, nous prévoyons d'ajouter la vidéo à la vidéo, mais cela n'est pas encore possible).

Text to music – two modes!

AUTOMATIC LYRICS
 
 /makesong Write a song about being in the face by a California Rattlesnake. Incorporate "dirty sanchez" and "Roosevelt Hoover"
 
MANUAL LYRICS
 
We plan to offer multiple music workflows. The first is called “music-ace” and it works like this:
 
 
/workflow /run:music-ace [verse] gonna make some songs [bridge] gonna make em [chorus] with pirate diffusion yeah!
 
Listen to more samples and get more ai song generation tips in our our detailed music-making blog.

Du texte à la vidéo

Tout d'abord, parcourez notre page sur les flux de travail et trouvez les noms courts de texte à vidéo. Les plus courants sont :
  • WAN 2.1 - le meilleur modèle vidéo open source actuel, écrivez une simple invite et cela se produit ! WAN semble avoir une meilleure adhésion au message et une meilleure animation que HunYuan, mais une moins bonne anatomie.
  • Boringvideo - crée des vidéos ordinaires réalistes qui semblent provenir d'un iPhone
  • HunYuan - trois types, voir le bas de la page du workflow pour les trouver. Hunyuan crée les vidéos les plus réalistes. Plus le chiffre "Q" est élevé, plus la qualité est grande, mais plus les vidéos sont courtes.
  • Vidéo - ceux qui s'appellent simplement Vidéo utilisent LTX Lighttricks, idéal pour les dessins animés en 3D.
 
/wf /run:video-hunylora-q8 cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
 

PirateDiffusion supporte les vidéos et loras Hunyuan et LightTricks / LTX ! Nous ajoutons plusieurs modèles de vidéos et vous pouvez les utiliser de façon illimitée dans le cadre de notre service, ainsi qu'une formation illimitée aux images et aux loras.

Dans LTX, la structure de l'invite a une grande importance. Une invite courte produira une image statique. Une invite comportant trop d'actions et d'instructions entraînera un panoramique de la vidéo vers des pièces ou des personnages aléatoires.

Meilleures pratiques : Comment faire en sorte que votre site images soit cohérent
 
Nous recommandons d'utiliser un modèle d'invite comme celui-ci :
  1. Décrivez d'abord ce que fait la caméra ou qui elle suit. Par exemple, une caméra en contre-plongée zoom, une caméra aérienne, un panoramique lent, un zoom arrière ou un éloignement, etc.
  2. Décrivez ensuite le sujet et une action qu'il effectue sur quoi ou sur qui. Cette partie demande de l'entraînement ! Dans l'exemple ci-dessus, remarquez que Ronald mangeant le hamburger vient après la caméra et la mise en place de la scène
  3. Décrivez la scène. Cela permet à l'IA de "segmenter" les éléments que vous souhaitez voir. Dans notre exemple, nous décrivons le costume et l'arrière-plan du clown.
  4. Donnez des références à l'appui. Par exemple, dites "Cela ressemble à une scène de film ou d'émission de télévision"
  5. You can specify a lora to control the art direction or character likeness. Add this to the end of the prompt like <move-enhancer-huny>

De l'image à la vidéo

Vous pouvez télécharger une photo et la transformer en vidéo. Il n'y a pas qu'une seule commande - regardez la série de workflow " animate " pour utiliser différents types de modèles d'IA. Essayez différents modèles et stratégies d'incitation pour trouver celui qui convient le mieux à votre projet, ou consultez le canal PLAYROOM de PirateDiffusion pour voir ce que d'autres ont créé avec ces modèles.

Le rapport hauteur/largeur de la vidéo sera déterminé par l'image que vous téléchargez, veuillez donc la recadrer en conséquence.

Pour ce faire, collez d'abord la photo dans le chat et cliquez sur "Répondre" comme si vous alliez parler à la photo, puis donnez-lui une commande comme celle-ci :

/wf /run:animate-wan21 a woman makes silly faces towards the camera
ou essayez l'un des autres flux de travail comme SkyReels :
/wf /run:animate-skyreels camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe

Nous hébergeons des modèles d'IA open source pour la conversion d'images en vidéos. Les deux modèles les plus populaires sont :

animate-skyreels = convertir une image en vidéo en utilisant les vidéos réalistes HunYuan

animate-ltx90 = utilise le modèle LightTricks. Idéal pour les dessins animés en 3D et les vidéos cinématiques.

Paramètres spéciaux :

/slot1 = length de la vidéo en images. Les settings sûrs sont 89, 97, 105, 113, 121, 137, 153, 185, 201, 225, 241, 257. Plus est possible mais instable

/slot2 = images par seconde. 24 est recommandé. Les flux de travail turbo sont exécutés à 18 images par seconde, mais peuvent être modifiés. Au-delà de 24 images par seconde, c'est du cinéma, tandis que 30 images par seconde semblent plus réalistes. 60 images par seconde est possible à un faible nombre d'images, mais cela ressemble à la vitesse d'un tamia.

Limites :

  • Vous devez être membre de Graydient Plus pour créer des vidéos.
  • De nombreux exemples de vidéos sont disponibles aujourd'hui dans le canal VIP et Playroom. Venez passer du temps avec nous et envoyez-nous vos idées pendant que nous mettons la dernière main à la vidéo.
 
Essayez un nouveau recipe! Tapez /render #quick et votre invite
Conseil : Utilisez /render #quick - une macro pour obtenir cette qualité sans avoir à taper des négations.

Guidance (CFG)

L'échelle Classifier-Free Guidance est un paramètre qui détermine dans quelle mesure l'IA suit l'invite ; des valeurs plus élevées signifient une plus grande adhésion à l'invite. 

Lorsque cette valeur est plus élevée, l'image peut paraître plus nette, mais l'IA aura moins de "créativité" pour remplir les espaces, ce qui peut entraîner une pixellisation et des imperfections. 

La valeur par défaut la plus sûre est 7 pour les modèles de base les plus courants. Cependant, il existe des modèles spéciaux à haut rendement qui utilisent une échelle différente ( guidance ), expliquée ci-dessous.

SYNTAX

/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate

Le niveau de réglage du site guidance dépend du site sampler que vous utilisez. Les échantillonneurs sont expliqués ci-dessous. La quantité de steps autorisée pour "résoudre" une image peut également jouer un rôle important.

 

Exceptions à la règle 

Les modèles typiques suivent ce schéma guidance et pas à pas, mais les nouveaux modèles à haut rendement nécessitent beaucoup moins de guidance pour fonctionner de la même manière, entre 1,5 et 2,5. Ceci est expliqué ci-dessous :

Modèles à haut rendement

Faible Steps, Faible Guidance

La plupart des concepts ont besoin d'un guidance de 7 et de 35+ steps pour générer une bonne image. Cette situation est en train de changer avec l'arrivée de modèles plus efficaces.

Ces modèles peuvent créer images en 1/4 de temps, ne nécessitant que 4 à 12 steps avec des guidance inférieurs. Vous pouvez les trouver étiquetés comme Turbo, Hyper, LCM et Lightning dans le système concepts , et ils sont compatibles avec les modèles classiques. Vous pouvez les utiliser avec les Loras et les Inversions de la même famille de modèles. La famille SDXL offre le plus grand choix (utilisez le menu déroulant, tout à droite). Juggernaut 9 Lightining est un choix populaire.

Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]].  Follow it up with an upscale, and the effects are stunning!

Consultez les notes de ces modèles spéciaux pour plus de détails sur leur utilisation, comme l'Aetherverse-XL (illustré ci-dessous), avec un guidance de 2,5 et 8 steps comme illustré ci-dessous.

VASS (SDXL uniquement)

Vass est un HDR mode pour SDXL, qui peut également améliorer la composition et réduire la saturation des couleurs. Certains le préfèrent, d'autres non. Si l'image semble trop colorée, essayez-la sans Refiner (NoFix).

Le nom vient de Timothy Alexis Vass, un chercheur indépendant qui a exploré l'espace latent SDXL et a fait des observations intéressantes. fait des observations intéressantes. Son objectif est de corriger les couleurs et d'améliorer le contenu de images. Nous avons adapté le code qu'il a publié pour qu'il fonctionne dans PirateDiffusion.

/render a cool cat <sdxl> /vass

Pourquoi et quand l'utiliser : Essayez-le sur SDXL images qui est trop jaune, décentré ou dont la gamme de couleurs semble limitée. Vous devriez constater une meilleure vibration et des arrière-plans plus nets.

Limitations : Cette méthode ne fonctionne qu'avec SDXL. 

 
 

Plus d'outils (commande de réponse)

L'outil Plus permet de créer des variations de la même image

Pour voir le même sujet dans des variations légèrement différentes, utilisez l'outil "plus". 

DÉCRIRE UNE PHOTO

Mise à jour ! Il existe maintenant deux modes de description : CLIP et FLORENCE2

Générez une invite à partir de n'importe quelle image grâce à la vision par ordinateur avec Describe ! Il s'agit d'une commande de type "réponse", donc faites un clic droit sur l'image comme si vous alliez lui parler, et écrivez

/describe /florence

Le paramètre supplémentaire Florence permet d'obtenir une invite beaucoup plus détaillée. Il utilise le nouveau modèle de vision artificielle Florence2. /describe utilise le modèle CLIP.

Exemple

Lancer des widgets dans PirateDiffusion