Bloqueador de Javascript detectado

Por favor, pause temporalmente o pónganos en la lista blanca para crear una cuenta

Si has abierto nuestro enlace desde una aplicación, busca los 3 puntos en la parte superior derecha para abrir nuestra página en tu navegador. No mostramos anuncios ni vendemos/compartimos tus datos, pero nuestra web requiere Javascript para funcionar correctamente. Gracias. -Equipo Graydient

PirateDiffusion Guía

Pirate Diffusion

pirate diffusion logotipo

Visión general

Pirate Diffusion de Graydient AI es el bot más potente de Telegram. Es un bot multimodal, lo que significa que maneja grandes modelos de lenguaje como DeepSeek y Llama 3.3, decenas de miles de modelos de imagen como FLUX, Stable Diffusion 3.5, AuraFlow, Pony y SDXL y también modelos de vídeo como Hunyuan y LightTricks (LTX).

 

Valor increíble

A diferencia de otros servicios de IA generativa, no se requieren "fichas" ni "créditos". PirateDiffusion está diseñado para un uso ilimitado, libre de derechos de autor, y se incluye con Graydient's webUI.

¿Por qué utilizar un bot?

Es extremadamente rápido y ligero en móvil, y puedes usarlo en solitario o en grupos de desconocidos o con amigos. Nuestro community está haciendo macros de chat para potentes flujos de trabajo ComfyUI, por lo que se obtiene todo el beneficio de un resultado de renderizado de escritorio de un simple bot de chat. Es una locura. 

 

¿Qué más puede hacer?

 

ImagesVideo, y LLM chats. Puede hacer casi de todo. 

Puedes hacer images 4k en unas pocas pulsaciones sin GUI. Puedes utilizar todas las funciones principales de Stable Diffusion a través del chat. Algunas características requieren una interfaz visual, y se abre una página web para aquellos (integración WebUI Unificado)

Crea por ti mismo con tu bot privado, o únete a grupos y mira lo que otras personas están haciendo. También puedes crear bots temáticos como /animebot que conectan nuestros LLMs PollyGPT a modelos StableDiffusion, ¡y chatear con ellos para ayudarte a crear! Crea un workflow que sea totalmente único para ti usando loadouts, recipe (macros) widgets (visual gui builder) y custom bots. ¡Hace mucho!

Historia del origen

El nombre Pirate Diffusion procede del modelo Stable Diffusion 1.5 filtrado en octubre de 2022, que fue de código abierto. Construimos el primer bot de Stable Diffusion en Telegram y aparecieron miles de personas, y así es como empezamos. Pero para que quede claro: aquí no hay piratería, simplemente nos encantaba el nombre. Aun así, bastante gente (y nuestro banco) dijeron que el nombre era un poco exagerado, así que cambiamos el nombre de nuestra empresa a "Graydient" pero nos encanta Pirate Diffusion. Atrae a gente divertida e interesante.

Ya está aquí la generación ilimitada de vídeos para los miembros Plus.  

Si eres miembro del Plan de vídeo de Graydient, puedes utilizar varios flujos de trabajo de vídeo. Hay dos categorías generales de flujos de trabajo de vídeo: convertir una indicación en un vídeo y convertir una foto existente en un vídeo. (En el futuro, pretendemos añadir la conversión de vídeo en vídeo, pero aún no está disponible).
 

Texto a vídeo

En primer lugar, navega por nuestra página de flujos de trabajo y busca los nombres cortos de texto a vídeo. Los más populares son:
  • WAN 2.1 - el mejor modelo actual de vídeo de código abierto, ¡escribe un simple prompt y sucede! WAN parece tener mejor adherencia y animación que HunYuan, pero peor anatomía.
  • Boringvideo - crea vídeos normales y corrientes que parecen salidos de un iPhone
  • HunYuan - tres tipos, mira en la parte inferior de la página de workflow para encontrarlos. Hunyuan crea los vídeos más realistas. Cuanto más alto es el número "Q", mayor es la calidad, pero más cortos son los vídeos.
  • Vídeo: los que se llaman simplemente Vídeo utilizan LTX Lighttricks, ideales para dibujos animados en 3D.
 
/wf /run:video-hunylora-q8 cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
 

¡PirateDiffusion soporta Hunyuan y LightTricks / LTX videos y loras! Estamos añadiendo múltiples modelos de vídeo y se puede utilizar de forma ilimitada como parte de nuestro servicio, junto con la imagen ilimitada y lora formación ilimitada.

En LTX, la estructura del prompt importa mucho. Un mensaje corto dará como resultado una imagen estática. Un aviso con demasiadas acciones e instrucciones hará que el vídeo se desplace a diferentes habitaciones o personajes aleatorios.  

Buenas prácticas: Cómo hacer que su images se mueva con cohesión
 
Recomendamos una pauta como ésta:
  1. En primer lugar, describe qué hace la cámara o a quién sigue. Por ejemplo, una cámara de ángulo bajo zoom, una cámara aérea, una panorámica lenta, un zoom alejándose o alejándose, etc.
  2. A continuación, describe al sujeto y una acción que esté realizando sobre qué o quién. Esta parte requiere práctica. En el ejemplo anterior, fíjate en que Ronald se come la hamburguesa después de la configuración de la cámara y la escena.
  3. Describe la escena. Esto ayuda a la IA a "segmentar" las cosas que quieres ver. En nuestro ejemplo, describimos el disfraz de payaso y el fondo.
  4. Proporcione material de referencia de apoyo. Por ejemplo: "Esto parece una escena de una película o de un programa de televisión".
  5. You can specify a lora to control the art direction or character likeness. Add this to the end of the prompt like <move-enhancer-huny>

Imagen a vídeo

Puedes subir una foto y convertirla en un vídeo. No hay sólo un comando - mira en la serie de workflow "animar" para utilizar diferentes tipos de modelos de IA. Prueba diferentes modelos y estrategias de animación para encontrar el que mejor funciona para tu proyecto, o mira en el canal PLAYROOM en PirateDiffusion para ver lo que otros han creado con ellos.

La relación de aspecto del vídeo vendrá determinada por la imagen que subas, así que recórtala en consecuencia.

Para ello, primero pega la foto en el chat y haz clic en "Responder", como si fueras a hablar con la foto, y luego dale una orden como ésta:

/wf /run:animate-wan21 a woman makes silly faces towards the camera
o prueba uno de los otros flujos de trabajo como SkyReels:
/wf /run:animate-skyreels camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe

Alojamos modelos de IA de código abierto para la conversión de imágenes en vídeo. Los dos más populares son:

animate-skyreels = convertir una imagen en vídeo utilizando vídeos realistas HunYuan

animate-ltx90 = utiliza el modelo LightTricks. Lo mejor para dibujos animados en 3D y vídeo cinematográfico.

Parámetros especiales:

/slot1 = length del vídeo en fotogramas. Los settings seguros son 89, 97, 105, 113, 121, 137, 153, 185, 201, 225, 241, 257. Más es posible pero inestable

/ranura2 = fotogramas por segundo. Se recomienda 24. Los flujos de trabajo turbo funcionan a 18 fps pero se pueden cambiar. Por encima de 24 es cinematográfico, 30fps parece más realista. 60fps es posible a cuadros bajos pero parece velocidad de ardilla.

Limitaciones:

  • Debes ser miembro de Graydient Plus para crear vídeos
  • Muchas muestras de vídeo están disponibles hoy en el canal VIP y Sala de juegos. Ven a pasar el rato y envíanos tus ideas puntuales mientras damos los últimos retoques al vídeo.
 
¡Pruebe un nuevo recipe! Tipo /render #quick y su prompt
Consejo: Utilice /render #quick - una macro para lograr esta calidad sin escribir negativos

Guidance (CFG)

La escala Classifier-Free Guidance es un parámetro que controla hasta qué punto la IA sigue la indicación; los valores más altos significan una mayor adherencia a la indicación. 

Cuando este valor es más alto, la imagen puede parecer más nítida, pero la IA tendrá menos "creatividad" para rellenar los espacios, por lo que pueden producirse pixelaciones y fallos. 

Un valor predeterminado seguro es 7 para los modelos básicos más comunes. Sin embargo, hay modelos especiales de alta eficiencia que utilizan una escala guidance diferente, que se explican a continuación.

SYNTAX

/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate

Lo alto o lo bajo que debe ajustarse guidance depende del sampler que esté utilizando. Los muestreadores se explican más adelante. La cantidad de steps permitida para "resolver" una imagen también puede desempeñar un papel importante.

 

Excepciones a la norma 

Los modelos típicos siguen este patrón de guidance y escalones, pero los nuevos modelos de alta eficiencia necesitan mucho menos guidance para funcionar de la misma manera, entre 1,5 - 2,5. Esto se explica a continuación:

Modelos de alta eficiencia

Bajo Steps, Bajo Guidance

La mayoría de concepts requieren una guidance de 7 y 35+ steps para generar una gran imagen. Esto está cambiando con la llegada de modelos de mayor eficiencia.

Estos modelos pueden crear images en 1/4 del tiempo, necesitando sólo 4-12 steps con guidance inferior. Puede encontrarlos etiquetados como Turbo, Hyper, LCM, y Lightning en el sistema concepts , y son compatibles con los modelos clásicos. Puedes usarlos junto a Loras e Inversions de la misma familia de modelos. La familia SDXL tiene la mayor selección (utiliza el menú desplegable, en el extremo derecho). El Juggernaut 9 Lightining es una opción muy popular.

Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]].  Follow it up with an upscale, and the effects are stunning!

Consulta las notas de estos tipos de modelos especiales para obtener más detalles sobre cómo utilizarlos, como Aetherverse-XL (imagen inferior), con un guidance de 2,5 y 8 steps , como se muestra en la imagen inferior.

VASS (sólo SDXL)

Vass es un HDR mode para SDXL, que también puede mejorar la composición y reducir la saturación del color. Algunos lo prefieren, otros no. Si la imagen se ve demasiado colorido, inténtelo sin Refinador (NoFix)

El nombre proviene de Timothy Alexis Vass, un investigador independiente que ha estado explorando el espacio latente SDXL y ha hecho algunas observaciones interesantes. Su objetivo es la corrección de color, y mejorar el contenido de images. Hemos adaptado su código publicado para funcionar en PirateDiffusion.

/render a cool cat <sdxl> /vass

Por qué y cuándo utilizarlo: Pruébalo en SDXL images que estén demasiado amarillos, descentrados, o la gama de colores se sienta limitada. Deberías ver una mejor vibración y fondos más limpios.

Limitaciones: Esto sólo funciona en SDXL. 

 
 

Más herramienta (comando de respuesta)

La herramienta Más crea variaciones de la misma imagen

Para ver el mismo tema en variaciones ligeramente diferentes, utilice la herramienta más. 

DESCRIBIR UNA FOTO

¡Actualizado! Ahora hay dos modos de describir: CLIP y FLORENCE2

¡Genera un prompt a partir de cualquier imagen con visión por ordenador con Describe! Es un comando de "respuesta", así que haz clic derecho sobre la imagen como si fueras a hablar con ella, y escribe

/describe /florence

El parámetro adicional Florence le ofrece una indicación mucho más detallada. Utiliza el nuevo modelo de visión por ordenador Florence2. /describe por sí mismo utiliza el modelo CLIP

Ejemplo

Lanzar widgets dentro de PirateDiffusion