fbpx

PirateDiffusion Guía

Pirate Diffusion

pirate diffusion logotipo

Visión general

Pirate Diffusion de Graydient AI es el bot más potente de Telegram. Es un bot multimodal, lo que significa que maneja grandes modelos de lenguaje y miles de modelos de imagen como FLUX, Pony, y SDXL y también vídeo como LTX LightTricks.

 

Valor increíble

A diferencia de otros servicios de IA generativa, no se requieren "fichas" ni "créditos". PirateDiffusion está diseñado para un uso ilimitado, libre de derechos de autor, y se incluye con Graydient's webUI.

 

¿Por qué utilizar un bot?

Es extremadamente rápido y ligero en móvil, y puedes usarlo en solitario o en grupos de desconocidos o con amigos. Nuestro community está haciendo macros de chat para potentes flujos de trabajo ComfyUI, por lo que se obtiene todo el beneficio de un resultado de renderizado de escritorio de un simple bot de chat. Es una locura. 

 

¿Qué más puede hacer?

 

ImagesVideo, y LLM chats. Puede hacer casi de todo. 

Usted puede hacer 4k images en unas pocas pulsaciones de teclas sin una interfaz gráfica de usuario. Puede utilizar todos los principales Stable Diffusion a través de chat. Algunas características requieren una interfaz visual, y aparece una página web para aquellos (stable2go integración)

Crea por ti mismo con tu bot privado, o únete a grupos y mira lo que otras personas están haciendo. También puedes crear bots temáticos como /animebot que conectan nuestros LLMs PollyGPT a modelos StableDiffusion, ¡y chatear con ellos para ayudarte a crear! Crea un workflow que sea totalmente único para ti usando loadouts, recipe (macros) widgets (visual gui builder) y custom bots. ¡Hace mucho!

Historia del origen

El nombre Pirate Diffusion procede del modelo Stable Diffusion 1.5 filtrado en octubre de 2022, que fue de código abierto. Construimos el primer bot de Stable Diffusion en Telegram y aparecieron miles de personas, y así es como empezamos. Pero para que quede claro: aquí no hay piratería, simplemente nos encantaba el nombre. Aun así, bastante gente (y nuestro banco) dijeron que el nombre era un poco exagerado, así que cambiamos el nombre de nuestra empresa a "Graydient" pero nos encanta Pirate Diffusion. Atrae a gente divertida e interesante.

Happy New Year – we are testing video generation!  

If you’re a member of Graydient Plus, you can try our beta today. There are two video modes currently available – text to video, and image to video.  To use video, call the /workflow command or the shortcut /wf.  There are five video workflows at this time, which we’ll cover below:
 

Text to video

/wf /run:video cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
 
The underlying model is called LTX or LightTricks Video.  In LTX, the structure of the prompt matters a lot. A short prompt will result in a static image. A prompt with too many actions and instructions will cause the video to pan to different random rooms or characters.  
Best Practices: How to make your images move cohesively
 
We recommend a prompt pattern like this:
  1. First describe what the camera is doing or who its following. For example, a low angle camera zoom, an overhead camera, a slow pan, zooming out or away, etc.
  2. Next describe the subject and one action they are performing onto what or whom. This part takes practice!  In the example above, notice that Ronald eating the burger came after the camera and scene setup
  3. Describe the scene.  This helps the AI “segment” the things that you want to see. So in our example, we describe the clown costume and background.
  4. Give supporting reference material.  For example, say “This looks like a scene from a movie or TV show”
  5. You can specify a Flux lora to control the art direction or character likeness. Add this to the end of the prompt like <muscularwoman-flux>
  6.  You can specify size like /size:468×832 and /guidance to control the “HDR” effect

Additional Workflows

These video workflows are available right now, we’re live!

video  =  Full sized LTX with Flux integration at the first step for loras.  Use case: beautiful videos but short.  Our best looking video workflow, hands down.

video-medium   = Well rounded. Can handle motion well. Doesn’t use loras but its fast and can make longer videos than the flux one.

video-turbo = The fastest, with quality tradeoff.  Best for still subjects and subtle animations.  Can look nice at higher sizes and steps, I like to start my ideas here to see if they will even animate, then move my seed and other settings up the chain.

Image to video

You can also upload a photo and turn it into a video.  To do this, first paste the photo into the chat and click “Reply” as if you’re going to talk to the photo, and then give it a command like this:

/wf /run:animate camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe

There are two levels of this video workflow, which are:

animate   = convert an image to video 

animate-turbo  = same, using small/fast models

Special parameters:

/slot1 = length of the video in frames.  Safe settings are 89, 97, 105, 113, 121, 137, 153, 185, 201, 225, 241, 257.   More is possible but unstable

/slot2 = frames per second.  24 is recommended.  Turbo workflows run at 18 fps but can be changed.  above 24 is cinematic, 30fps looks more realistic.  60fps is possible at low frames but it looks like chipmunk speed.

Limitations:

  • You must be a member of Graydient Plus to try the beta
  • Muchas muestras de vídeo están disponibles hoy en el canal VIP y Sala de juegos. Ven a pasar el rato y envíanos tus ideas puntuales mientras damos los últimos retoques al vídeo.
 
En la imagen de abajo: El Flux "Atomix" workflow pero directo de prompt a video, no requiere el paso Img2img.
¡Pruebe un nuevo recipe! Tipo /render #quick y su prompt
Consejo: Utilice /render #quick - una macro para lograr esta calidad sin escribir negativos

Guidance (CFG)

La escala Classifier-Free Guidance es un parámetro que controla hasta qué punto la IA sigue la indicación; los valores más altos significan una mayor adherencia a la indicación. 

Cuando este valor es más alto, la imagen puede parecer más nítida, pero la IA tendrá menos "creatividad" para rellenar los espacios, por lo que pueden producirse pixelaciones y fallos. 

Un valor predeterminado seguro es 7 para los modelos básicos más comunes. Sin embargo, hay modelos especiales de alta eficiencia que utilizan una escala guidance diferente, que se explican a continuación.

SYNTAX

/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate

Lo alto o lo bajo que debe ajustarse guidance depende del sampler que esté utilizando. Los muestreadores se explican más adelante. La cantidad de steps permitida para "resolver" una imagen también puede desempeñar un papel importante.

 

Excepciones a la norma 

Los modelos típicos siguen este patrón de guidance y escalones, pero los nuevos modelos de alta eficiencia necesitan mucho menos guidance para funcionar de la misma manera, entre 1,5 - 2,5. Esto se explica a continuación:

Modelos de alta eficiencia

Bajo Steps, Bajo Guidance

La mayoría de concepts requieren una guidance de 7 y 35+ steps para generar una gran imagen. Esto está cambiando con la llegada de modelos de mayor eficiencia.

Estos modelos pueden crear images en 1/4 del tiempo, necesitando sólo 4-12 steps con guidance inferior. Puede encontrarlos etiquetados como Turbo, Hyper, LCM, y Lightning en el sistema concepts , y son compatibles con los modelos clásicos. Puedes usarlos junto a Loras e Inversions de la misma familia de modelos. La familia SDXL tiene la mayor selección (utiliza el menú desplegable, en el extremo derecho). El Juggernaut 9 Lightining es una opción muy popular.

Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]].  Follow it up with an upscale, and the effects are stunning!

Consulta las notas de estos tipos de modelos especiales para obtener más detalles sobre cómo utilizarlos, como Aetherverse-XL (imagen inferior), con un guidance de 2,5 y 8 steps , como se muestra en la imagen inferior.

VASS (sólo SDXL)

Vass es un HDR mode para SDXL, que también puede mejorar la composición y reducir la saturación del color. Algunos lo prefieren, otros no. Si la imagen se ve demasiado colorido, inténtelo sin Refinador (NoFix)

El nombre proviene de Timothy Alexis Vass, un investigador independiente que ha estado explorando el espacio latente SDXL y ha hecho algunas observaciones interesantes. Su objetivo es la corrección de color, y mejorar el contenido de images. Hemos adaptado su código publicado para funcionar en PirateDiffusion.

/render a cool cat <sdxl> /vass

Por qué y cuándo utilizarlo: Pruébalo en SDXL images que estén demasiado amarillos, descentrados, o la gama de colores se sienta limitada. Deberías ver una mejor vibración y fondos más limpios.

Limitaciones: Esto sólo funciona en SDXL. 

 
 

Más herramienta (comando de respuesta)

La herramienta Más crea variaciones de la misma imagen

Para ver el mismo tema en variaciones ligeramente diferentes, utilice la herramienta más. 

DESCRIBIR UNA FOTO

¡Actualizado! Ahora hay dos modos de describir: CLIP y FLORENCE2

¡Genera un prompt a partir de cualquier imagen con visión por ordenador con Describe! Es un comando de "respuesta", así que haz clic derecho sobre la imagen como si fueras a hablar con ella, y escribe

/describe /florence

El parámetro adicional Florence le ofrece una indicación mucho más detallada. Utiliza el nuevo modelo de visión por ordenador Florence2. /describe por sí mismo utiliza el modelo CLIP

Ejemplo

Lanzar widgets dentro de PirateDiffusion