PirateDiffusion Guía
Pirate Diffusion
- Visión general
- Fundamentos
- Comandos
- Comentarios
Visión general
Pirate Diffusion de Graydient AI es el bot más potente de Telegram. Es un bot multimodal, lo que significa que maneja grandes modelos de lenguaje y miles de modelos de imagen como FLUX, Pony, y SDXL y también vídeo como LTX LightTricks.
Valor increíble
A diferencia de otros servicios de IA generativa, no se requieren "fichas" ni "créditos". PirateDiffusion está diseñado para un uso ilimitado, libre de derechos de autor, y se incluye con Graydient's webUI.
¿Por qué utilizar un bot?
Es extremadamente rápido y ligero en móvil, y puedes usarlo en solitario o en grupos de desconocidos o con amigos. Nuestro community está haciendo macros de chat para potentes flujos de trabajo ComfyUI, por lo que se obtiene todo el beneficio de un resultado de renderizado de escritorio de un simple bot de chat. Es una locura.
¿Qué más puede hacer?
ImagesVideo, y LLM chats. Puede hacer casi de todo.
Usted puede hacer 4k images en unas pocas pulsaciones de teclas sin una interfaz gráfica de usuario. Puede utilizar todos los principales Stable Diffusion a través de chat. Algunas características requieren una interfaz visual, y aparece una página web para aquellos (stable2go integración)
Crea por ti mismo con tu bot privado, o únete a grupos y mira lo que otras personas están haciendo. También puedes crear bots temáticos como /animebot que conectan nuestros LLMs PollyGPT a modelos StableDiffusion, ¡y chatear con ellos para ayudarte a crear! Crea un workflow que sea totalmente único para ti usando loadouts, recipe (macros) widgets (visual gui builder) y custom bots. ¡Hace mucho!
Historia del origen
El nombre Pirate Diffusion procede del modelo Stable Diffusion 1.5 filtrado en octubre de 2022, que fue de código abierto. Construimos el primer bot de Stable Diffusion en Telegram y aparecieron miles de personas, y así es como empezamos. Pero para que quede claro: aquí no hay piratería, simplemente nos encantaba el nombre. Aun así, bastante gente (y nuestro banco) dijeron que el nombre era un poco exagerado, así que cambiamos el nombre de nuestra empresa a "Graydient" pero nos encanta Pirate Diffusion. Atrae a gente divertida e interesante.
Happy New Year – we are testing video generation!
Text to video
/wf /run:video cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
- First describe what the camera is doing or who its following. For example, a low angle camera zoom, an overhead camera, a slow pan, zooming out or away, etc.
- Next describe the subject and one action they are performing onto what or whom. This part takes practice! In the example above, notice that Ronald eating the burger came after the camera and scene setup
- Describe the scene. This helps the AI “segment” the things that you want to see. So in our example, we describe the clown costume and background.
- Give supporting reference material. For example, say “This looks like a scene from a movie or TV show”
- You can specify a Flux lora to control the art direction or character likeness. Add this to the end of the prompt like <muscularwoman-flux>
- You can specify size like /size:468×832 and /guidance to control the “HDR” effect
Additional Workflows
These video workflows are available right now, we’re live!
video = Full sized LTX with Flux integration at the first step for loras. Use case: beautiful videos but short. Our best looking video workflow, hands down.
video-medium = Well rounded. Can handle motion well. Doesn’t use loras but its fast and can make longer videos than the flux one.
video-turbo = The fastest, with quality tradeoff. Best for still subjects and subtle animations. Can look nice at higher sizes and steps, I like to start my ideas here to see if they will even animate, then move my seed and other settings up the chain.
Image to video
You can also upload a photo and turn it into a video. To do this, first paste the photo into the chat and click “Reply” as if you’re going to talk to the photo, and then give it a command like this:
/wf /run:animate camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe
There are two levels of this video workflow, which are:
animate = convert an image to video
animate-turbo = same, using small/fast models
Special parameters:
/slot1 = length of the video in frames. Safe settings are 89, 97, 105, 113, 121, 137, 153, 185, 201, 225, 241, 257. More is possible but unstable
/slot2 = frames per second. 24 is recommended. Turbo workflows run at 18 fps but can be changed. above 24 is cinematic, 30fps looks more realistic. 60fps is possible at low frames but it looks like chipmunk speed.
Limitations:
- You must be a member of Graydient Plus to try the beta
- Muchas muestras de vídeo están disponibles hoy en el canal VIP y Sala de juegos. Ven a pasar el rato y envíanos tus ideas puntuales mientras damos los últimos retoques al vídeo.
Anterior / Changelog:
- Ahora puede utilizar Flux loras con determinados flujos de trabajo de Flux . Es compatible con Flux FP32, Flux Dev, Iphone Photo
- Se ha añadido un HD Anime Illustrious workflow . ¡Crujiente!
- Flux Redux, Flux Controlnet Depth, y tantos nuevos flujos de trabajo ya están disponibles
- ¡Mejor outpainting! Intente responder a una imagen con /zoomout-flux
- Mejor integración de LoRamaker. Usa /makelora para crear una lora privada en tu navegador web, y luego úsala en Telegram en cuestión de minutos.
- Nuevo comando LLM*. Escriba /llm seguido de cualquier pregunta. Actualmente funciona con el modelo Llama 3 de 70.000 millones de parámetros, ¡y es rápido! No censuramos sus mensajes, sin embargo, el modelo en sí puede tener algunos de sus propios guardarraíles. *LLM es la abreviatura de "Large Language Model", como en los modelos de chat similares a ChatGPT.
- Muchos puntos de control de FLUX están aquí. Escribe /workflows para explorarlos y obtener sus comandos. También nuevo: un atajo para los flujos de trabajo es /wf. Video tutorial
- Más modelos, ¡más de 10.000! Prueba el nuevo Juggernaut 9 Lightning, es más rápido que Juggernaut X. También puedes usarlo simplemente añadiendo este hashtag: #jugg9
- Florence modelo de visión por ordenador añadido - Sube cualquier foto y el tipo /describe / florence para obtener una descripción detallada vívida pronta a utilizar con sus flujos de trabajo
- Custom bots puede ahora retener memorias. Ver "recuerdos" en el tutorial PollyGPT
- ¡Mejor render monitorización! Tipo /monitor para que aparezca, es una pequeña página web. Si los servidores de Telegram de tu ciudad están ocupados o fuera de línea, ¡el images puede ser recogido de nuestro Cloud Drive mucho más rápido!
- ¡Nuevo Bots! Pruébalo: /xtralargebot /animebot /lightningbot y chatty bots como /kimmybot /angelinabot /nicolebot /senseibot
- Los miembros del plan Plus ahora pueden elegir Llama3 70 mil millones de parámetro para su bots
- Nuevas recetas: Prueba #quick para HD rápido images, o #quickp para retratos, #quickw para wide
- Polly ¡Actualizado! - Utilice /polly para chatear con el bot, y haga clic derecho respuesta a conversar
- Polly ahora también sólo utiliza los modelos que marcas como favoritos en Mis modelos
- El nuevo comando /unified envía images a Stable2go para su edición web
- ¡El nuevo /bots comando - personalizar Polly a su gusto, LLM + modelos de imagen!
¿Y ahora?
Sugiere una función y valora las ideas de los demás.
Vea lo próximo en nuestra hoja de ruta y lo que acaba de llegar en nuestro registro de cambios.
Preconfeccionados y personalizados bots
BÁSICOS: El comando LLM
/llm who would win a fight between a pacifist tiger with a shotgun or a thousand angry penguins parachuting above with forks and knives?
Tipo /llm (como LLM, gran modelo de lenguaje) y hacer una pregunta, similar a ChatGPT. Está impulsado por el modelo de 70 mil millones de parámetros Llama3.
CREE SU PROPIO AGENTE LLM
Para cambiar a otro modelo y personalizar un personaje de chatbot alternativo, inicia sesión en mi.graydient.ai y haz clic en chatbots para elegir otros LLM como Mixtral y Wizard .
Presentación de "POLLY"
Polly es uno de los personajes de PirateDiffusion que habla y crea images. Pruébalo:
Uno está en el @piratediffusion_bot puede hablar con Polly así:
/polly a silly policeman investigates a donut factory
También puede utilizarlo desde su navegador web accediendo a my.graydient.ai y haciendo clic en el icono Chat Bots .
INTRODUCCIÓN A LA COSTUMBRE BOTS
Polly es sólo uno de los muchos personajes creados por nuestra community. Para ver una lista de otros personajes públicos, escriba:
/bots
Para crear uno nuevo, escriba
/bots /new
Esto iniciará PollyGPT en su navegador web para entrenar a su propio personaje, que más tarde se puede acceder como un personaje dentro de su @piratediffusion_bot.
EXPLORAR LA COSTUMBRE BOTS
AI community está lleno de creadores interesantes. Algunos están abriendo grandes modelos de lenguaje (alternativas a ChatGPT) así como modelos de imagen de código abierto (alternativas a DALLE y MJ). Nuestro software original une ambas cosas en un creador de "bots" fácil de usar dentro de Telegram o a través de la web. Visita nuestra página Polly GPT docs - ¡ahora con recuerdos! para más información y plantillas para crear tu propio bots.
Activar tu bot
Para utilizar PirateDiffusion se necesita una cuenta de Graydient y una cuenta (gratuita) de Telegram. Configúralo
¿Necesitas ayuda con tu bot? ¿Atascado en mode? Póngase en contacto con nosotros
Conceptos básicos
NUEVO USUARIO
/start
CÓMO EMPEZAR
Entra en mi.graydient.ai, busca el icono de configuración en el panel de control y sigue las instrucciones.
Si necesitas ayuda, visita nuestro canal de asistencia
/email [email protected]
Si has actualizado tu cuenta en Patreon, tu correo electrónico y el de Patreon deben coincidir. Si no puedes activar y desbloquear todas las funciones, escribe /debug y envía ese número.
USERNAME
/username Tiny Dancer
El bot usará tu nombre de Telegram como tu community públicousername (mostrado en lugares como recetas, destacados images). Puedes cambiar esto en cualquier momento con el comando /username , así:WEBUI y PASSWORDPirateDiffusion viene con un compañero de sitio web para operaciones que son difíciles de hacer, como organizar tus archivos e inpainting. Para acceder a su archivo, escriba
/webui
Es privado por defecto. Para configurar su password, utilice un comando como este
/community /password:My-Super-Secure-Password123@#$%@#$
Para desactivar un password, escriba
/community /password:none
¿Cómo es un buen aviso?
Un prompt es una descripción completa que indica a la IA qué imagen debe generar:
- ¿Debe ser realista? ¿Un tipo de obra de arte?
- Describa la hora del día, el punto de vista y la iluminación
- Describe bien al sujeto y sus acciones
- Describa la última ubicación y otros detalles
Ejemplo básico:
una mujer rubia de 25 años, influencer de Instagram, que vive el estilo de vida de las furgonetas de viaje
Consejos rápidos
1. Describe siempre el cuadro completo
Un prompt no es un mensaje de chat, es decir, no es una conversación de varios turnos. Cada prompt es un nuevo turno en el sistema, olvidando todo lo que se tecleó el turno anterior. Por ejemplo, si pedimos "un perro disfrazado", seguro que lo conseguimos. Esta pregunta describe completamente una foto. Si sólo pedimos "que sea rojo" (idea incompleta), no veremos al perro porque "eso" no se ha transmitido, por lo que no se entenderá la instrucción. Presente siempre la instrucción completa.
2. El orden de las palabras importa
Coloca las palabras más importantes al principio de la frase. Si estás creando un retrato, coloca primero el aspecto de la persona y lo que lleva puesto, seguido de qué y dónde está como detalles menos importantes.
3. Length también importa
Las palabras del principio son las más importantes, y cada palabra hacia el final recibe cada vez menos atención - hasta aproximadamente 77 "tokens" o instrucciones. Sin embargo, debes saber que cada IA concept de nuestro sistema está entrenada en temas diferentes, por lo que elegir la concept adecuada influirá en lo bien que te entiendan. Lo mejor es ir al grano y aprender a usar el concepts sistema a continuación) en lugar de escribir instrucciones largas para obtener resultados de la máxima calidad.
Sugerencias positivas
Las indicaciones positivas y negativas son palabras que indican a la IA lo que queremos ver y lo que no. Los humanos no solemos comunicarnos de forma tan binaria, pero en un entorno muy ruidoso podríamos decir "¡esto, pero eso!".
Positivo: Una escena de playa diurna con arena azul clara, palmeras
Negativo: Gente, Barcos, Bikinis, NSFW
Esto entró en las dos cajas del editor Stable2go, así:
Las indicaciones positivas contienen el tema y detalles de apoyo de la imagen. Ayuda a describir el arte style y el entorno, así como sus expectativas estéticas. Ejemplos:
- foto realista de cachorro de la mejor calidad
- obra maestra dibujo de un girasol, fondo bokeh
- foto de ángulo bajo de un scooter en un camino de entrada, acuarelas
- una tortuga con una ((cerveza))
Potenciar lo positivo
Para dar más énfasis a determinadas palabras, añada paréntesis anidados. Esto aumenta su factor en 1,1x.
En el ejemplo anterior, decimos que "tortuga" es el sujeto, porque aparece al principio de la frase, pero la cerveza es igual de importante aunque aparezca más adelante. Cuando se crean situaciones inverosímiles, el énfasis adicional ayuda.
Preguntas negativas
Negativos describe lo que no quieres que aparezca en la imagen.
Si quieres un Seamonster pero no el mar, el monstruo es tu Positivo y el Océano es tu Negativo.
Los negativos también pueden favorecer la calidad de las fotos, al desincentivar los miembros sobrantes, la baja resolución, etc.
- (dame lo que quiero) [pero, no, estas, cosas]
- (gato bonito) mejor calidad [[[gato feo, baja resolución, baja calidad]]]
- un perro (terrier, cachorro) pero no un [gato, gatito, bola de pelo, Garfield].
- you can also call a negative concept [[<fastnegative-xl>]]
Comandos Pro
Cree images como un profesional de la difusión estable con estos parámetros:
RENDER
Si no desea que Polly o su propio bots le ayuden a escribir, utilice el comando /render para hacerlo de forma totalmente manual. Prueba una lección rápida.
/render a close-up photo of a gorilla jogging in the park <sdxl>
The trigger word <sdxl> refers to a concept
EN LÍNEA POSITIVOS, NEGATIVOS
Los positivos indican a la IA qué debe enfatizar. Esto se expresa con (paréntesis redondos). Cada par de corchetes representa un múltiplo de 1,1x del refuerzo positivo. Los negativos hacen lo contrario, utilizando corchetes.
/render <sdxl> ((high quality, masterpiece, masterwork)) [[low resolution, worst quality, blurry, mediocre, bad art, deformed, disfigured, elongated, disproportionate, anatomically incorrect, unrealistic proportions, mutant, mutated, melted, abstract, surrealism, sloppy, crooked]] Takoyaki on a plate
Añadir demasiados corchetes puede limitar la capacidad de relleno de la IA, así que si observas fallos en la imagen, prueba a reducir el número de corchetes e inversiones.
Consejo: Cómo hacer ediciones rápidas de avisos:
Después de enviar un aviso, recupéralo rápidamente pulsando la flecha ARRIBA desde Telegram Desktop. O pulsa una sola vez el eco de confirmación que aparece en una fuente alternativa. El orden de las palabras es importante. Coloca las palabras más importantes al principio de tu mensaje para obtener mejores resultados: Ángulo de cámara, Quién, Qué, Dónde.
TRADUCIR
¿Prefieres preguntar en otro idioma? Puede consultar render images en más de 50 idiomas, por ejemplo:
/render /translate un perro muy guapo <sdxl>
No es necesario especificar qué idioma, simplemente lo sabe. Cuando traduzcas, evita utilizar jerga. Si la IA no ha entendido lo que le has dicho, intenta reformularlo en términos más obvios.
Limitaciones de la traducción
Algunas expresiones de la jerga regional pueden malinterpretarse, por lo que se recomienda utilizar la función de traducción de la forma más literal posible. Por ejemplo, "cubito de hielo" podría significar cubito de hielo o cubo pequeño de hielo en español, dependiendo de la región y del matiz contextual.
Para ser justos, esto también puede ocurrir en inglés, ya que la IA puede tomarse las cosas demasiado al pie de la letra. Por ejemplo, un usuario pidió un oso polar de caza, y le dio un rifle de francotirador. ¡Cumplimiento malicioso!
Para evitar que esto ocurra, utilice varias palabras en sus indicaciones positivas y negativas.
RECIPE MACROS
Las recetas son plantillas de avisos. Un recipe puede contener tokens, samplers, modelos, inversiones textuales y mucho más. Esto es un verdadero ahorro de tiempo, y vale la pena aprenderlo si te encuentras repitiendo las mismas cosas en tu prompt una y otra vez.
Cuando introdujimos las inversiones negativas, muchos nos preguntaron "¿por qué no están activadas por defecto?", y la respuesta es control : a todo el mundo le gusta algo diferente settings. Nuestra solución a esto fueron las recetas: hashtags que invocan plantillas de avisos.
Para ver una lista de ellas, escriba /recetas o explórelas en nuestro sitio web: la lista maestra de plantillas de avisos
/recipes
La mayoría de las recetas fueron creadas por community, y pueden cambiar en cualquier momento ya que son gestionadas por sus respectivos propietarios. Se pretende que una solicitud tenga sólo 1 recipe, o las cosas pueden ponerse raras.
Hay dos formas de utilizar recipe. Puedes llamarlo por su nombre utilizando un hashtag, como el "rápido" recipe:
/render a cool dog #quick
Algunas recetas populares son #nfix y #eggs y #boost y #everythingbad y #sdxlreal.
Importante: Al crear un recipe, es necesario añadir $prompt en algún lugar de su área positiva, o el recipe no puede aceptar su entrada de texto. Puedes colocarlo en cualquier lugar, es flexible.
En el campo "otros comandos", puede apilar a continuación otros parámetros de mejora de la calidad.
COMPOSE
Compose permite la creación multiprompt, multi-regional. Las zonas disponibles son: background, bottom, bottomcenter, bottomleft, bottomright, center, left, right, top, topcenter, topleft, topright. El formato de cada zona es x1, y1, x2, y2.
/compose /size:2000x700 /left:The tower of Thai food /center:Jungles of Thailand, tropical rainforest [blurry] /right: Castle made of stone, castle in the jungle, tropical vegetation
Otro ejemplo
/compose /seed:1 /images:2 /size:384×960 /top:ZeldaKingdom GloomyCumulonimbus /bottom:1983Toyota Have a Cookie /guidance:5
Consejo: Utilice un guidance de aproximadamente 5 para una mejor mezcla. También puede especificar el modelo. Guidance se aplica a toda la imagen. Estamos trabajando para añadir guidance regional.
/compose /size:1000x2000 /top: Lion roaring, lion on top of building /center: Apartment building, front of building, entrance /bottom: Dirty city streets, New York city streets [[ugly]] [[blurry] /images:1 /guidance:7
BLEND
(ADAPTADORES IP)
Requisito previo: Dominar primero ControlNet .
Blend le permite fusionar varios images almacenados en images desde su biblioteca ControlNet . Esto se basa en una tecnología llamada Adaptadores IP. Este es un nombre terriblemente confuso para la mayoría de la gente, así que simplemente lo llamamos blend.
En primer lugar, crea una imagen preestablecida concepts pegando una foto en tu bot y dándole un nombre exactamente como lo harías en ControlNet. Si ya tienes controles guardados, también sirven.
/control /new:chicken
Una vez que tenga dos o más de ellas, puede consultarlas en blend .
/render /blend:chicken:1 /blend:zelda:-0.4
Consejo: Adaptadores IP soporta negativo images. Se recomienda restar una imagen de ruido para obtener mejores imágenes.
Puedes control el ruido de esta imagen con /blendnoise
Por defecto es 0.25. Se puede desactivar con /blendnoise:0.0
También puede ajustar la intensidad del efecto Adaptadores IP con /blendguidance - por defecto es 0.7
Sugerencia: Blend también se puede utilizar cuando inpainting y modelos SDXL
DESPUÉS DEL DETALLADOR
El comando /render tiene muchos parámetros potentes. Uno muy popular es After Detailer, también conocido como Adetailer
/render /adetailer a close-up photo of a gorilla jogging in the park <sdxl>
Esto escaneará su imagen en busca de manos, ojos y rostros defectuosos inmediatamente después de crear la imagen, y los corregirá automáticamente. Funciona con SDXL y SD15 a partir de marzo '24
Limitaciones:
Puede pasar por alto caras giradas a ~15 grados o crear dos caras en este caso.
After Detailer funciona mejor cuando se utiliza junto con buenas indicaciones positivas y negativas, e inversiones, que se explican a continuación:
U GRATIS
FreeU (Free Lunch in Diffusion U-Net) es un detallador experimental que amplía el rango guidance en cuatro intervalos distintos durante la render. Hay 4 valores posibles, cada uno entre 0-2.
b1: factor de salto de la primera etapa
b2: factor de salto de la segunda etapa
s1: factor de salto de la primera etapa
s2: factor de salto de la segunda etapa
/render <av5> a drunk horse in Rome /freeu:1.1,1.2,0.9,0.2
Comandos de creación de imágenes
POLLY
Polly es tu asistente para la creación de imágenes y la forma más rápida de escribir indicaciones detalladas. Cuando 'Fave un modelo en concepts', Polly elegirá una de tus favoritas al azar.
Para utilizar Polly en Telegram, háblale así:
/polly a silly policeman investigates a donut factory
La respuesta contendrá un aviso que puede render allí mismo, o copiar en el portapapeles para utilizarlo con el comando /render (que se explica más adelante).
También puedes mantener una conversación de chat normal empezando por /raw
/polly /raw explain the cultural significance of japanese randoseru
También puede utilizarlo desde su navegador web accediendo a my.graydient.ai y haciendo clic en el icono Polly .
BOTS
Polly puede personalizarse. Puede formar a su asistente
/bots
Bots mostrará una lista de los asistentes que hayas creado. Por ejemplo, si mi asistente es Alice, puedo usarlo como /alicebot ve a hacerme un bocadillo. El @piratediffusion_bot debe estar en el mismo canal que tú.
Para crear uno nuevo, escriba
/bots /new
RENDER
Si no desea que Polly o su propio bots le ayuden a escribir, utilice el comando /render para hacerlo de forma totalmente manual. Prueba una lección rápida.
/render a close-up photo of a gorilla jogging in the park <sdxl>
The trigger word <sdxl> refers to a concept
EN LÍNEA POSITIVOS, NEGATIVOS
Los positivos indican a la IA qué debe enfatizar. Esto se expresa con (paréntesis redondos). Cada par de corchetes representa un múltiplo de 1,1x del refuerzo positivo. Los negativos hacen lo contrario, utilizando corchetes.
/render <sdxl> ((high quality, masterpiece, masterwork)) [[low resolution, worst quality, blurry, mediocre, bad art, deformed, disfigured, elongated, disproportionate, anatomically incorrect, unrealistic proportions, mutant, mutated, melted, abstract, surrealism, sloppy, crooked]] Takoyaki on a plate
Añadir demasiados corchetes puede limitar la capacidad de relleno de la IA, así que si observas fallos en la imagen, prueba a reducir el número de corchetes e inversiones.
Consejo: Cómo hacer ediciones rápidas de avisos:
Después de enviar un aviso, recupéralo rápidamente pulsando la flecha ARRIBA desde Telegram Desktop. O pulsa una sola vez el eco de confirmación que aparece en una fuente alternativa. El orden de las palabras es importante. Coloca las palabras más importantes al principio de tu mensaje para obtener mejores resultados: Ángulo de cámara, Quién, Qué, Dónde.
TRADUCIR
¿Prefieres preguntar en otro idioma? Puede consultar render images en más de 50 idiomas, por ejemplo:
/render /translate un perro muy guapo <sdxl>
No es necesario especificar qué idioma, simplemente lo sabe. Cuando traduzcas, evita utilizar jerga. Si la IA no ha entendido lo que le has dicho, intenta reformularlo en términos más obvios.
Limitaciones de la traducción
Algunas expresiones de la jerga regional pueden malinterpretarse, por lo que se recomienda utilizar la función de traducción de la forma más literal posible. Por ejemplo, "cubito de hielo" podría significar cubito de hielo o cubo pequeño de hielo en español, dependiendo de la región y del matiz contextual.
Para ser justos, esto también puede ocurrir en inglés, ya que la IA puede tomarse las cosas demasiado al pie de la letra. Por ejemplo, un usuario pidió un oso polar de caza, y le dio un rifle de francotirador. ¡Cumplimiento malicioso!
Para evitar que esto ocurra, utilice varias palabras en sus indicaciones positivas y negativas.
RECIPE MACROS
Las recetas son plantillas de avisos. Un recipe puede contener tokens, samplers, modelos, inversiones textuales y mucho más. Esto es un verdadero ahorro de tiempo, y vale la pena aprenderlo si te encuentras repitiendo las mismas cosas en tu prompt una y otra vez.
Cuando introdujimos las inversiones negativas, muchos nos preguntaron "¿por qué no están activadas por defecto?", y la respuesta es control : a todo el mundo le gusta algo diferente settings. Nuestra solución a esto fueron las recetas: hashtags que invocan plantillas de avisos.
Para ver una lista de ellas, escriba /recetas o explórelas en nuestro sitio web: la lista maestra de plantillas de avisos
/recipes
La mayoría de las recetas fueron creadas por community, y pueden cambiar en cualquier momento ya que son gestionadas por sus respectivos propietarios. Se pretende que una solicitud tenga sólo 1 recipe, o las cosas pueden ponerse raras.
Hay dos formas de utilizar recipe. Puedes llamarlo por su nombre utilizando un hashtag, como el "rápido" recipe:
/render a cool dog #quick
Algunas recetas populares son #nfix y #eggs y #boost y #everythingbad y #sdxlreal.
Importante: Al crear un recipe, es necesario añadir $prompt en algún lugar de su área positiva, o el recipe no puede aceptar su entrada de texto. Puedes colocarlo en cualquier lugar, es flexible.
En el campo "otros comandos", puede apilar a continuación otros parámetros de mejora de la calidad.
COMPOSE
Compose permite la creación multiprompt, multi-regional. Las zonas disponibles son: background, bottom, bottomcenter, bottomleft, bottomright, center, left, right, top, topcenter, topleft, topright. El formato de cada zona es x1, y1, x2, y2.
/compose /size:2000x700 /left:The tower of Thai food /center:Jungles of Thailand, tropical rainforest [blurry] /right: Castle made of stone, castle in the jungle, tropical vegetation
Otro ejemplo
/compose /seed:1 /images:2 /size:384×960 /top:ZeldaKingdom GloomyCumulonimbus /bottom:1983Toyota Have a Cookie /guidance:5
Consejo: Utilice un guidance de aproximadamente 5 para una mejor mezcla. También puede especificar el modelo. Guidance se aplica a toda la imagen. Estamos trabajando para añadir guidance regional.
/compose /size:1000x2000 /top: Lion roaring, lion on top of building /center: Apartment building, front of building, entrance /bottom: Dirty city streets, New York city streets [[ugly]] [[blurry] /images:1 /guidance:7
BLEND
(ADAPTADORES IP)
Requisito previo: Dominar primero ControlNet .
Blend le permite fusionar varios images almacenados en images desde su biblioteca ControlNet . Esto se basa en una tecnología llamada Adaptadores IP. Este es un nombre terriblemente confuso para la mayoría de la gente, así que simplemente lo llamamos blend.
En primer lugar, crea una imagen preestablecida concepts pegando una foto en tu bot y dándole un nombre exactamente como lo harías en ControlNet. Si ya tienes controles guardados, también sirven.
/control /new:chicken
Una vez que tenga dos o más de ellas, puede consultarlas en blend .
/render /blend:chicken:1 /blend:zelda:-0.4
Consejo: Adaptadores IP soporta negativo images. Se recomienda restar una imagen de ruido para obtener mejores imágenes.
Puedes control el ruido de esta imagen con /blendnoise
Por defecto es 0.25. Se puede desactivar con /blendnoise:0.0
También puede ajustar la intensidad del efecto Adaptadores IP con /blendguidance - por defecto es 0.7
Sugerencia: Blend también se puede utilizar cuando inpainting y modelos SDXL
DESPUÉS DEL DETALLADOR
El comando /render tiene muchos parámetros potentes. Uno muy popular es After Detailer, también conocido como Adetailer
/render /adetailer a close-up photo of a gorilla jogging in the park <sdxl>
Esto escaneará su imagen en busca de manos, ojos y rostros defectuosos inmediatamente después de crear la imagen, y los corregirá automáticamente. Funciona con SDXL y SD15 a partir de marzo '24
Limitaciones:
Puede pasar por alto caras giradas a ~15 grados o crear dos caras en este caso.
After Detailer funciona mejor cuando se utiliza junto con buenas indicaciones positivas y negativas, e inversiones, que se explican a continuación:
U GRATIS
FreeU (Free Lunch in Diffusion U-Net) es un detallador experimental que amplía el rango guidance en cuatro intervalos distintos durante la render. Hay 4 valores posibles, cada uno entre 0-2.
b1: factor de salto de la primera etapa
b2: factor de salto de la segunda etapa
s1: factor de salto de la primera etapa
s2: factor de salto de la segunda etapa
/render <av5> a drunk horse in Rome /freeu:1.1,1.2,0.9,0.2
Concepts visión general
Concepts son modelos de IA especializados que generan cosas específicas que no pueden entenderse bien sólo con indicaciones. Se pueden utilizar varios concepts juntos: Típicamente un modelo Base y 1-3 LoRas o Inversions son el uso más común.
También puede formarse usted mismo iniciando la interfaz web de formación:
/makelora
Una nota sobre las loras personalizadas y la privacidad:
- Loras privados: Utiliza siempre el comando /makelora de tu conversación privada con @piratediffusion_bot para hacer una lora que sólo tú puedas ver. También puede utilizar esto dentro de su subdominio privado, pero NO aparecerá en la instancia compartida de Stable2go o creación rápida en MyGraydient.
- Loras públicas: Para entrenar y compartir tu LoRa con todo community, entra en mi.graydient.ai y haz clic en el icono LoRaMaker. Estas loras aparecerán para todo el mundo, incluido tu bot de Telegram.
Familia de modelos
En este momento, nuestro software es compatible con dos familias de Stable Diffusion: SD15 (más antigua, entrenada a 512×512) y Stable Diffusion XL, que es nativamente 1024×1024. Si se mantiene cerca de estas resoluciones obtendrá los mejores resultados (y evitará la duplicación de miembros, etc.).
Lo más importante que hay que tener en cuenta es que las familias no son compatibles entre sí. Una base SDXL no puede utilizarse con una SD15 Lora, y viceversa.
Sintaxis:
LISTA DE MODELOS
The term AI model can also mean chat models, so we call image models “concepts”. A concept can be a person, pose, effect, or art style. To bring those things into your creation, we call their “trigger word” which appear in angled brackets like this: <sdxl>
Our platform has over 8 terabytes of AI concepts preloaded. PirateDiffusion is never stuck in one style, we add new ones daily.
/concepts
El propósito del comando /concepts es buscar rápidamente palabras desencadenantes para modelos como una lista en Telegram. Al final de esa lista, también encontrarás un enlace para explorar concepts visualmente en nuestro sitio web.
Utilizando concepts
Para crear una imagen, empareje una palabra desencadenante de conceptcon el comando render (que se explica más adelante) y describa la foto.
To use one, use it’s trigger name anywhere in the prompt. For example, one of the most popular concepts of the moment is called Realistic Vision 5 SDXL, a realistic “base model” — the basis of the overall image style. The trigger name for Realistic Vision 5 SDXL is <realvis5-xl> so we would then prompt.
/render a dog <realvis4-xl>
Consejo: Elige 1 modelo base (como realvis4-xl) una o tres loras, y algunas inversiones negativas para crear una imagen equilibrada. Añadir demasiados o conflictivos concepts (como 2 poses) puede causar artefactos. Prueba una lección o crea una tú mismo
BUSCAR MODELOS
Puedes buscar directamente desde Telegram.
/concept /search:emma
MODELOS RECIENTES
Recuerda rápidamente los últimos que has probado:
/concept /recent
MODELOS FAVORITOS
Utilice el comando fave para seguir y recordar sus modelos favoritos en una lista personal.
/concept /fave:concept-name
MI MODELO POR DEFECTO
Difusión estable 1.5 es el modelo por defecto, pero ¿por qué no sustituirlo por el modelo que prefiera?
This will impact both your Telegram and Stable2go account. After you do this command, you don’t have to write that <concept-name> every time in your prompts. Of course, you can override it with a different model in a /render.
/concept /default:concept-name
Tipos de Concepts
Los modelos base también se denominan "modelos completos" y son los que determinan en mayor medida la style de la imagen. LoRas y Textual Inversions son modelos más pequeños para controles finos. Son archivos pequeños con especificidad sobre un tema, normalmente una persona o una pose. Los modelos de Inpainting sólo son utilizados por las herramientas Inpaint y Outpaint, y no deben utilizarse para renderizar u otros fines.
Etiquetas especiales concept
El sistema concepts está organizado por etiquetas, con una amplia gama de temas, desde animales hasta poses.
Hay algunas etiquetas especiales llamadas Tipos, que le indican cómo se comporta el modelo. También hay sustitutos para los Positivos y Negativos llamados Detalladores y Negativos. Cuando utilice el tipo Negativo concept , recuerde establecer también el peso como negativo.
INVERSIONES NEGATIVAS
El sistema de modelos dispone de modelos especiales denominados inversiones negativas, también llamados incrustaciones negativas. Estos modelos se entrenaron en images de aspecto horrible intencionadamente, para guiar a la IA sobre lo que no debe hacer. Así, al llamar a estos modelos como negativos, aumentan la calidad significativamente. El peso de estos modelos debe estar entre dobles [[paréntesis negativos]], entre -0,01 y -2.
/render <sdxl> [[<fastnegative-xl:-2>]] Takoyaki on a plate
Los modelos con nombres que suenan rápido como "Hyper" y "Turbo" pueden render images rápidamente con parámetros bajos, que se explican a continuación en Guidance / CFG.
Esos números además de los nombres de los modelos son "pesos"
Puede control la cantidad de influencia que un modelo tiene en su imagen ajustando su peso. Necesitamos pesos porque los modelos tienen opiniones, por lo que tiran de la imagen en su propia dirección de entrenamiento. Cuando se añaden varios modelos, esto puede causar pixelación y distorsión si no están de acuerdo. Para solucionar esto, podemos disminuir o aumentar el peso de cada modelo para obtener lo que queremos.
Las reglas de los pesos
Los modelos completos no son ajustables. También conocidos como puntos de control o modelos base, son archivos de gran tamaño que determinan el arte general style. Para cambiar la influencia artística del modelo base, simplemente debemos cambiarlo por otro modelo base. Por eso tenemos tantos en el sistema.
LoRas y Textual Inversions tienen pesos flexibles.
Desplazar el peso hacia el positivo hace que estos modelos sean más audaces. En términos sencillos, las LoRas son versiones más detalladas de las Inversiones Textuales.
BUENAS PRÁCTICAS
Utiliza siempre 1 modelo base, y añade loras e inversiones.
Cargar varios modelos base no los carga blend , sólo cargará uno, pero "tokenizará" los otros que hayas cargado, lo que significa que puedes escribir sus nombres y ocurrirá lo mismo sin ralentizar tu render (menos modelos en memoria = más rápido).
Para LoRas e Inversiones, puedes usar ambos y muchos de ellos a la vez, aunque la mayoría de la gente se queda con 1-3 ya que es más fácil de equilibrar.
Para los usuarios de SDXL, encontrarás muchas etiquetas en el sistema llamadas "-type". Se trata de una subfamilia de modelos que funcionan mejor cuando se cargan juntos. En el momento de esta guía, el tipo más popular es Pony (no literalmente ponis) que tienen mejor cohesión de prontitud, especialmente para cosas sexys. Los Loras Pony funcionan mejor con modelos base Pony, y así sucesivamente.
PONDERACIONES POSITIVAS DEL MODELO
Los límites de los pesos son -2 (negativo) y 2 (máximo). Un peso entre 0,4 - 0,7 suele funcionar mejor. Los números por encima de 0,1 tienen un efecto similar al de un ((indicador positivo)). Hay más de diez dígitos de precisión decimal disponibles, pero la mayoría de la gente se ciñe a un solo dígito, y eso es lo que recomendamos.
PONDERACIONES NEGATIVAS DEL MODELO (véanse las inversiones negativas anteriores)
Es posible influir negativamente en la imagen para obtener un efecto positivo neto.
Por ejemplo, alguien entrenó una colección de manos de IA de aspecto nudoso y cargando eso como negativo crea manos bonitas. La solución fue bastante ingeniosa. Encontrarás muchos tipos de hacks de calidad como este en nuestro sistema. Ellos save nos tiempo de escribir cosas como [[mala calidad]] una y otra vez. Cuando uses un modelo negativo, desliza el peso hacia el negativo, típicamente -1 o -2. Tiene un efecto similar a [[negative prompt]].
Solución de problemas
Utilizar muchos modelos puede ser como tocar muchas canciones al mismo tiempo: si todas tienen el mismo volumen (peso) es difícil distinguir algo.
Si los images aparecen demasiado bloqueados o pixelados, asegúrate de que tienes un modelo base y tu guidance está ajustado a 7 o menos, y tus positivos y negativos no son demasiado fuertes. Intenta ajustar tus pesos para encontrar el mejor equilibrio. Aprende más sobre Guidance y Parámetros en la guía de abajo.
Parámetros
Resolución: Anchura y Altura
Las fotos de modelos de IA se "entrenan" a un tamaño específico, por lo que crear images cerca de esos tamaños produce los mejores resultados. Si intentamos aumentar el tamaño demasiado pronto, pueden producirse fallos (gemelos, extremidades de más).
Directrices
- Modelos Diffusion XL estables: Empieza en 1024×1024, y suele ser seguro por debajo de 1400×1400.
- Stable Diffusion 1.5 se entrenó a 512×512, por lo que los límites superiores son 768×768. Algunos modelos avanzados, como Photon, funcionan a 960×576. más consejos sobre el tamaño SD15
- Siempre puedes escalar en un segundo paso cerca de 4K, consulta la información del escaladorFacelift más abajo.
Sintaxis
Puedes cambiar la forma de una imagen fácilmente con estos comandos abreviados: /portrait /alto /paisaje /wide
/render /portrait a gorilla jogging in the park <sdxl>
También puede ajustar manualmente la resolución con /size. Por defecto, los borradores de images se crean con un tamaño de 512×512. Estos pueden parecer un poco borrosos, por lo que el uso del comando de tamaño le dará un resultado de aspecto más claro.
/render /size:768x768 a gorilla jogging in the park <sdxl>
Limitaciones: Stable Diffusion 1.5 se entrena a 512×512, por lo que un tamaño demasiado grande dará lugar a cabezas dobles y otras mutaciones. SDXL se entrena a 1024×1024, por lo que un tamaño como 1200×800 funcionará mejor con un modelo SDXL que con un modelo SD 1.5, ya que habrá menos probabilidad de repetición. Si obtiene sujetos duplicados al utilizar /size , intente comenzar la pregunta con 1 mujer/hombre y describa el fondo con más detalle al final de la pregunta.
Para lograr 2000×2000 y 4000×4000, utilice el aumento de escala.
Seed
Un número arbitrario utilizado para inicializar el proceso de generación de imágenes. No se trata de una imagen específica (no es como un ID de foto en la base de datos), sino más bien de un marcador general. El propósito de un seed es ayudar a repetir un prompt de imagen. Seed era originalmente la mejor manera de mantener caracteres persistentes, pero ha sido reemplazado por el sistema Concepts .
Para repetir una imagen: los campos Seed, Guidance, Sampler, Concepts y prompt deben ser los mismos. Cualquier desviación de estos cambiará la imagen.
SYNTAX
/render /seed:123456 cats in space
Steps
El número de iteraciones que la IA tarda en refine la imagen, con más steps generalmente conduce a una mayor calidad. Por supuesto, un mayor número de pasos conlleva un procesamiento más lento.
/render /steps:25 (((cool))) cats in space, heavens
Establecer steps en 25 es la media. Si no se especifica steps, se establece en 50 por defecto, que es alto. El rango de steps va de 1 a 100 cuando se ajusta manualmente, y hasta 200 steps cuando se utiliza con un preajuste. Los preajustes son:
- waymore - 200 steps, dos images - mejor por calidad
- más -100 steps, tres images
- menos - 25 steps, seis images
- ¡wayless - 15 steps, nueve images! - lo mejor para borradores
/render /steps:waymore (((cool))) cats in space, heavens
Aunque puede ser tentador poner /steps:waymore en cada render, esto sólo ralentiza tu workflow ya que el tiempo de cálculo tarda más. Aumenta el steps cuando hayas creado tu mejor mensaje. Como alternativa, aprenda a utilizar LCM sampler para obtener la máxima calidad images con el menor número de steps. Demasiados steps también pueden freír una imagen.
EXCEPCIONES
¡El antiguo consejo era trabajar por encima de 35 steps o más para conseguir calidad, sin embargo, esto ya no es siempre así, ya que los nuevos modelos de alta eficiencia pueden crear una imagen impresionante con sólo 4 steps!
Guidance (CFG)
La escala Classifier-Free Guidance es un parámetro que controla hasta qué punto la IA sigue la indicación; los valores más altos significan una mayor adherencia a la indicación.
Cuando este valor es más alto, la imagen puede parecer más nítida, pero la IA tendrá menos "creatividad" para rellenar los espacios, por lo que pueden producirse pixelaciones y fallos.
Un valor predeterminado seguro es 7 para los modelos básicos más comunes. Sin embargo, hay modelos especiales de alta eficiencia que utilizan una escala guidance diferente, que se explican a continuación.
SYNTAX
/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate
Lo alto o lo bajo que debe ajustarse guidance depende del sampler que esté utilizando. Los muestreadores se explican más adelante. La cantidad de steps permitida para "resolver" una imagen también puede desempeñar un papel importante.
Excepciones a la norma
Los modelos típicos siguen este patrón de guidance y escalones, pero los nuevos modelos de alta eficiencia necesitan mucho menos guidance para funcionar de la misma manera, entre 1,5 - 2,5. Esto se explica a continuación:
Modelos de alta eficiencia
Bajo Steps, Bajo Guidance
La mayoría de concepts requieren una guidance de 7 y 35+ steps para generar una gran imagen. Esto está cambiando con la llegada de modelos de mayor eficiencia.
Estos modelos pueden crear images en 1/4 del tiempo, necesitando sólo 4-12 steps con guidance inferior. Puede encontrarlos etiquetados como Turbo, Hyper, LCM, y Lightning en el sistema concepts , y son compatibles con los modelos clásicos. Puedes usarlos junto a Loras e Inversions de la misma familia de modelos. La familia SDXL tiene la mayor selección (utiliza el menú desplegable, en el extremo derecho). El Juggernaut 9 Lightining es una opción muy popular.
Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]]. Follow it up with an upscale, and the effects are stunning!
Consulta las notas de estos tipos de modelos especiales para obtener más detalles sobre cómo utilizarlos, como Aetherverse-XL (imagen inferior), con un guidance de 2,5 y 8 steps , como se muestra en la imagen inferior.
VASS (sólo SDXL)
Vass es un HDR mode para SDXL, que también puede mejorar la composición y reducir la saturación del color. Algunos lo prefieren, otros no. Si la imagen se ve demasiado colorido, inténtelo sin Refinador (NoFix)
El nombre proviene de Timothy Alexis Vass, un investigador independiente que ha estado explorando el espacio latente SDXL y ha hecho algunas observaciones interesantes. Su objetivo es la corrección de color, y mejorar el contenido de images. Hemos adaptado su código publicado para funcionar en PirateDiffusion.
/render a cool cat <sdxl> /vass
Por qué y cuándo utilizarlo: Pruébalo en SDXL images que estén demasiado amarillos, descentrados, o la gama de colores se sienta limitada. Deberías ver una mejor vibración y fondos más limpios.
Limitaciones: Esto sólo funciona en SDXL.
ANALIZADORES SINTÁCTICOS Y PESOS
La parte del software que procesa tu mensaje se denomina analizador sintáctico. El analizador tiene el mayor impacto en la cohesión del mensaje, es decir, en lo bien que la IA entiende lo que intentas expresar y lo que debe priorizar.
PirateDiffusion tiene tres modos de analizador sintáctico: por defecto, LPW y Pesos (analizador sintáctico "nuevo"). Todos tienen sus ventajas e inconvenientes, por lo que la decisión depende de lo que le pidas a style y de cómo te sientas con el sintaxis.
MODE 1 - ANALIZADOR POR DEFECTO (EL MÁS SENCILLO)
El analizador sintáctico por defecto ofrece la mayor compatibilidad y características, pero sólo puede pasar 77 tokens (ideas lógicas o partes de palabras) antes de que Stable Diffusion deje de prestar atención a la indicación larga. Para transmitir lo que es importante, puede añadir refuerzo (positivo) y [negativo] como se explica en la sección anterior (ver positivos). Esto funciona con SD 1.5 y SDXL.
Pesos largos (experimental)
Puedes escribir indicaciones positivas y negativas más largas cuando está activado. Vea un vídeo de demostración.
Por ejemplo:
((high quality, masterpiece, masterwork)) A wizard browsing through a magical marketplace with a mystical air around him. He has pointy ears, spectacles perched precariously on his nose, and a wand twirling in hsi hand. His robes are adorned with intricate patterns and patterns of magic dust. There is a bubbling magical cauldron, and mythical creatures peeking around from behind him.
Se trata de una utilidad de reequilibrio de los avisos que permite que la comprensión de los avisos vaya mucho más allá de 77 tokens, mejorando la comprensión de los avisos en general. Por supuesto, esto sería la norma si no fuera por algunos inconvenientes desafortunados:
Limitaciones
- Requiere un guidance más bajo para obtener mejores resultados, alrededor de 7 o menos.
- LPW No debe combinarse con un estímulo positivo o negativo muy fuerte.
- (((((Se romperá)))))
- [[[[así lo hará]]]]
- No funciona bien con Loras o Inversion concepts
- LPW no es 100% compatible con la herramientaRemix
- No funciona con LCM sampler
PROMPT LENGTH
/render /lpw my spoon is too big, ((((big spoon)))) [small spoon], super big, massively big, you would not believe the size, and I've seen many spoons and let me tell you, this spoon in my hand, right here, is yuuuuge, the biggest spoon you'll ever see, and if anyone's said they've seen a bigger spoon, they're cheating, Big spoon, gigantic ladle, extra large serving bowl, oversized utensil, huge portion size, bulky kitchenware, impressive cooking tools, rustic table setting, hearty meals, heavyweight handle, strong grip, stylish design, handcrafted wooden piece, <coma2>
PESO DE LAS PALABRAS
PARSER "NEW" AKA PROMPT PESOS
Otra estrategia para mejorar la cohesión de los mensajes es dar un "peso" a cada palabra. El rango de pesos es 0 - 2 usando decimales, similar a LoRas. La sintaxis es un poco complicada, pero se admiten pesos positivos y negativos para una precisión increíble.
/render /parser:new (blue cat:0.1) (green bird:0.2) [(blue cat:2), (red dog:0.1)]
Preste especial atención a las negaciones, que utilizan un par de combinaciones [( )] para expresar negaciones. En el ejemplo anterior, gato azul y perro rojo son los negativos. Este rasgo no puede mezclarse con /lpw (arriba)
CLIP SKIP
Esta característica es controvertida, ya que es muy subjetiva y los efectos varían mucho de un modelo a otro.
Los modelos de IA se componen de capas, y en las primeras se dice que contienen demasiada información general (algunos dirían que basura), lo que da lugar a composiciones aburridas o repetitivas.
La idea detrás de Clip Skip es ignorar el ruido generado en estas capas e ir directamente a la carne.
/render /images:1 /guidance:8 /seed:123 /size:1024x1024 /sampler:dpm2m /karras <sdxl> huge diet coke /clipskip:2
En teoría, aumenta la cohesión y acelera la intención. Sin embargo, en la práctica, recortar demasiadas capas puede dar como resultado una mala imagen. Aunque el jurado aún no se ha pronunciado al respecto, un ajuste "seguro" muy popular es clipskip 2.
Refinador (sólo SDXL)
El refinador es una técnica de eliminación de ruido y suavizado, recomendada para pinturas e ilustraciones. Crea un images más suave con colores más limpios. Sin embargo, a veces es lo contrario de lo que se desea. Para un images realista, si desactiva el refinador obtendrá más color y detalles, como se muestra a continuación. A continuación, puede aumentar la escala de la imagen para reducir el ruido y aumentar la resolución.
SYNTAX
/render a cool cat <sdxl> /nofix
Por qué y cuándo utilizarlo: Cuando la imagen se ve demasiado lavada, o los colores de la piel se ven apagados. Añadir post-procesamiento utilizando uno de los comandos de respuesta (abajo) como /highdef o /facelift para hacer la imagen más acabado.
SAMPLER COMANDOS Y SINTAXIS
Para ver una lista de los muestreadores disponibles, simplemente escriba /muestreadores
Los muestreadores son una función de ajuste muy popular entre los entusiastas de la IA, y esto es lo que hacen. También se llaman programadores de ruido. La cantidad de steps y el sampler que elijas pueden tener un gran impacto en una imagen. Incluso con un steps bajo, puede obtener una imagen excelente con un sampler como DPM 2++ con el mode "Karras" opcional. Consulta la página de muestreadores para ver las comparaciones.
Para utilizarlo, añada lo siguiente a su mensaje
/render /sampler:dpm2m /karras a beautiful woman <sdxl>
Karras es un mode opcional que funciona con 4 muestreadores. En nuestras pruebas, puede dar lugar a resultados más agradables.
LCM en Difusión Estable significa Modelos de Consistencia Latente. Utilícelo para recuperar images más rápidamente apilándolo con steps y guidance inferiores. El compromiso es la velocidad por encima de la calidad, aunque puede producir asombrosos images muy rápidamente en grandes lotes.
/render /sampler:lcm /guidance:1.5 /steps:6 /images:9 /size:1024x1024 <realvis2-xl> /seed:469498 /nofix Oil painting, oil on board, painted picture Retro fantasy art by Brom by Gerald Brom ((high quality, masterpiece,masterwork)) [[low resolution,m worst quality, blurry, mediocre, bad art, deformed, disfigured, elongated, disproportionate, anatomically incorrect, unrealistic proportions, melted, abstract, surrealism, sloppy, crooked, skull, skulls]] Closeup Portrait A wizard stands in an alien landscape desert wearing wizards robes and a magic hat
Consejos: Cuando se utiliza SDXL, añadir /nofix para desactivar refinador, puede ayudar a mejorar la calidad, especialmente cuando se hace /more
Funciona con los modelos SD 1.5 y SDXL. Pruébelo con guidance entre 2-4 y steps entre 8-12. Por favor, experimenta y comparte tus descubrimientos en el grupo de discusión VIP prompt engineering, que encontrarás en la sección de miembros de Patreon.
Variará según el modelo, pero incluso /guidance:1.5 /steps:6 /images:9 ¡está devolviendo buenos resultados SDXL en menos de 10 segundos!
/render /size:1024x1024 <airtist-xl> [[<fastnegative-xl:-2>]] /sampler:lcm /guidance:1.5 /steps:6 /nofix /vae:madebyollin__sdxl-vae-fp16-fix ((high quality, masterpiece,masterwork)) [[low resolution, worst quality, blurry, mediocre, bad art, deformed, disfigured, elongated, disproportionate, anatomically incorrect, unrealistic proportions, mutant, mutated, melted, abstract, surrealism, sloppy, crooked]] Takoyaki on a plate
En el ejemplo anterior, el creador está utilizando el especial LCM sampler que permite muy bajo guidance y bajo steps, sin embargo, todavía crea muy alta calidad images. Compare este mensaje con algo como /sampler:dpm2m /karras /guidance:7 /steps:35
Pasando por alto, el comando VAE controla los colores, y /nofix apaga el refinador SDXL. Estos funcionan bien con LCM.
VAE OVERRIDE
VAE significa Variational AutoEncoder, una parte del software que influye mucho en el colorido de la imagen. Para SDXL, sólo hay una fantástica VAE en este momento.
VAE es un tipo especial de modelo que puede utilizarse para cambiar el contraste, la calidad y la saturación del color. Si una imagen parece demasiado brumosa y su guidance está ajustado por encima de 10, el VAE podría ser el culpable. VAE significa "autoencoder variacional" y es una técnica que reclasifica images, de forma similar a como un archivo zip puede comprimir y restaurar una imagen. El VAE "rehidrata" la imagen basándose en los datos a los que ha estado expuesta, en lugar de valores discretos. Si todos tus renders images aparecen desaturados, borrosos o con manchas moradas, cambiar el VAE es la mejor solución. (Notifíquenoslo también para que podamos establecer el correcto por defecto). 16 bit VAE corren más rápido.
/render #sdxlreal a hamster singing in the subway /vae:GraydientPlatformAPI__bright-vae-xl
Opciones preestablecidas disponibles VAE :
- /vae:GraydientPlatformAPI__bright-vae-xl
- /vae:GraydientPlatformAPI__sd-vae-ft-ema
- /vae:GraydientPlatformAPI__vae-klf8anime2
- /vae:GraydientPlatformAPI__vae-blessed2
- /vae:GraydientPlatformAPI__vae-anything45
- /vae:GraydientPlatformAPI__vae-naranja
- /vae:GraydientPlatformAPI__vae-pastel
Terceros VAE:
Sube o encuentra uno en el sitio web de Huggingface con esta configuración de directorio de carpetas:
https://huggingface.co/madebyollin/sdxl-vae-fp16-fix
A continuación, sustituya las barras oblicuas y elimine la parte delantera de la URL, de la siguiente manera:
/render lo que sea /vae:madebyollin__sdxl-vae-fp16-fix
La carpeta vae debe tener las siguientes características:
- Un único VAE por carpeta, en una carpeta de nivel superior de un perfil Huggingface, como se muestra más arriba.
- La carpeta debe contener un config.json
- El archivo debe estar en formato .bin
- El archivo bin debe llamarse "diffusion_pytorch_model.bin". Dónde encontrar más: Huggingface y Civitai pueden tener otros, pero deben ser convertidos al formato anterior
- kofi2 - muy colorido y saturado
- blessed2 - menos saturado que kofi2
- cualquier cosa45 - menos saturado que blessed2
- naranja - saturación media, verdes intensos
- pastel - colores vivos, como los antiguos maestros holandeses
- ft-mse-840000-ema-pruned - gran realismo
Proyectos
Puede render images directamente en las carpetas del proyecto. A continuación te explicamos cómo configurarlo a través de la web:
- En primer lugar, render una imagen para poner en marcha su proyecto en su @piratediffusion_bot
- Inicie Mi Graydient > Mi Images
- Seleccione images
- Haga clic en Organizar
- Haga clic en el menú desplegable Proyectos
- Dé un nombre a su proyecto
- Mueva su primer images
Continúe hasta el final de esta guía para ver los comandos relacionados con /project
ControlNet vía PirateDiffusion
Las ControlNets son plantillas de imagen a imagen para guiar la imagen final. Lo creas o no, puedes usar Controlnet de forma nativa dentro de Telegram sin el navegador, aunque soportamos ambos.
Puede proporcionar una imagen de partida como plantilla, elegir un mode, y cambiar el aspecto de esa imagen de partida con un indicador positivo y negativo. Puede control el efecto con el control deslizante de peso. Las entradas images entre 768×768 o 1400×1400 funcionan mejor.
En este momento, los modos soportados son contornos, profundidad, aristas, manos, pose, referencia, segmento, esqueleto y facepush, cada uno de los cuales tiene parámetros hijos. Más ejemplos
Visualización de los preajustes guardados en controlnet
/control
Cree un preajuste en ControlNet
Primero, sube una imagen. Luego "responde" a esa imagen con este comando, dándole un nombre como "myfavoriteguy2"
/control /new:myfavoriteguy2
Las redes de control son sensibles a la resolución, por lo que responderán con la resolución de la imagen como parte del nombre. Así, si subo una foto de Will Smith, el bot responderá will-smith-1000×1000 o el tamaño que tenga la imagen. Esto es útil para ayudarte a recordar el tamaño al que debes apuntar más tarde.
Recuperar un preajuste de ControlNet
Si olvidaste lo que hace tu preset, usa el comando show para verlos: /control o para ver una en concreto:
/control /show:myfavoriteguy2
Uso de los modos ControlNet
El (nuevo) parámetro abreviado para control guidance es /cg:0.1-2 - controla cuánto debe adherirse render a un controlnet mode determinado. Un punto óptimo es 0,1-0,5. También puedes escribirlo a la antigua como /controlguidance:1
Intercambio de caras
FaceSwapping también está disponible como comando de respuesta. También puedes usar este práctico faceswap (roop, insightface) para cambiar las caras de una imagen subida. Primero crea el control para la imagen, y luego añade una segunda imagen para intercambiar la cara
Como comando de respuesta (clic derecho sobre una imagen terminada, de cualquier modelo)
/faceswap myfavoriteguy2
facelift también admite un parámetro /strength , pero su funcionamiento no es el esperado:
/faceswap /strength:0.5 myfavoriteguy2
Si pones un /strength menor que 1, se *blend* la "imagen antes" con la "imagen después" - literalmente blend ellos, como en photoshop con 50% de opacidad (si la fuerza fue de 0,5). La razón de esto es porque el algoritmo subyacente no tiene un ajuste de "fuerza" como era de esperar, por lo que esta era nuestra única opción.
Empujar las caras
Faceswapping (explicado anteriormente) pero como comando render-time se llama "face pushing".
También puede utilizar nuestra tecnología FaceSwap de una manera (similar a un LoRa), pero es sólo una manera de ahorrar tiempo para crear un intercambio de caras. No tiene pesos ni mucha flexibilidad, encontrará cada cara realista en un nuevo render e intercambiará el images a 1 cara. Usa tus mismos nombres de preajustes de ControlNet para usarlo.
/render a man eating a sandwich /facepush:myfavoriteguy2
Facepush Limitaciones
Facepush sólo funciona con modelos Stable Diffusion 1.5 como y el punto de control debe ser realista. No funciona con modelos SDXL, y puede no funcionar con el comando /more o algunas resoluciones altas. Esta función es experimental. Si tienes problemas con /facepush intenta renderizar tu prompt y luego haz /faceswap en la imagen. Te dirá si la imagen no es lo suficientemente realista. Esto puede solucionarse a veces aplicando un /facelift para afinar el objetivo. /more y /remix pueden no funcionar como se espera (todavía)
Herramientas de gama alta (varias)
Aumenta los píxeles y los detalles
Aumente los detalles de una imagen en 4x, así como elimine líneas y manchas de las fotografías, de forma similar a la "belleza" mode de las cámaras de los smartphones. Modos para fotos realistas y obras de arte. más información
ALTA DEFINICIÓN
El comando HighDef (también conocido como High Res Fix) es un rápido doblador de píxeles. Basta con responder a la imagen para aumentarla.
/highdef
El comando highdef no tiene parámetros, porque el comando /more puede hacer lo que hace HighDef y más. Esto es simplemente aquí para su conveniencia. Para los profesionales que quieren más control, desplácese hacia atrás y ver el video tutorial /more .
Una vez que haya utilizado el comando /highdef o /more , puede aumentar la escala una vez más, como se explica a continuación.
UPSCALERS
Facelift está pensado para fotografías de retratos realistas.
Puede utilizar /strength entre 0,1 y 1 para control el efecto. El valor predeterminado es 1 si no se especifica.
/facelift
El comando /facelift también te da acceso a nuestra biblioteca de upscalers. Añada estos parámetros para control el efecto:
Facelift es un escalador de fase 2. Debe usar HighDef primero antes de usar Facelift. Este es el comando general de reescalado, que hace dos cosas: aumenta los detalles de las caras y multiplica por 4 los píxeles. Funciona de forma similar al beauty mode de tu smartphone, lo que significa que a veces puede pulir las caras, especialmente las ilustraciones. Por suerte, tiene otros modos de funcionamiento:
/facelift /photo
Esta opción desactiva el retoque facial y es adecuada para paisajes o retratos naturales.
/facelift /anime
A pesar de su nombre, no es sólo para anime : utilízalo para potenciar cualquier ilustración.
/facelift /size:2000x2000
Limitaciones: Facelift intentará 4x tu imagen, hasta 4000×4000. Telegram no suele permitir este tamaño, y si tu imagen ya es HD, al intentar 4X probablemente se quede sin memoria. Si la imagen es demasiado grande y no vuelve, intenta cogerla escribiendo /history para cogerla desde la web ui, ya que Telegram tiene límites de tamaño de archivo. Alternativamente, usa el parámetro de tamaño como se muestra arriba para usar menos memoria RAM al aumentar el tamaño.
REFINE
Refine es para esos momentos en los que quieres editar tu texto fuera de Telegram y en tu navegador web. Una cosa de calidad de vida.
Tu suscripción viene con Telegram y Stable2go WebUI. El comando refine te permite cambiar entre Telegram y la interfaz web. Esto es útil para hacer cambios rápidos de texto en tu navegador web, en lugar de copiar/pegar.
/refine
WebUI se iniciará en Brew mode por defecto. Haga clic en "Avanzado" para cambiar a Render.
Remix herramienta
Transformaciones de imagen a imagen
La herramienta remix es mágica. Una imagen cargada o renderizada puede transformarse en el arte style de un concept con la herramienta Remix . También puede utilizar fotos de entrada como imágenes de referencia para ir en dramáticamente diferentes cambios de tema.
SYNTAX
Remix es el comando de transferencia de imagen a imagen style , también conocido como comando de reintroducción.
Remix requiere una imagen como entrada, y destruirá cada píxel de la imagen para crear una imagen completamente nueva. Es similar al comando /more , pero puede pasarle otro nombre de modelo y una indicación para cambiar el arte style de la imagen.
Remix es el segundo comando de "respuesta" más popular. Responde literalmente a una foto como si fueras a hablar con ella, y luego introduce el comando. Este ejemplo cambia cualquier arte style desde el que empezaste al modelo base llamado Nivel 4.
/remix a portrait <level4>
Usted puede utilizar sus fotos subidas con /remix y los alterará por completo. Para preservar píxeles (como no cambiar la cara), considere la posibilidad de dibujar una máscara con Inpaint en su lugar.
Usos: Style Traspaso y Creativo "de lujo"
También puedes utilizar la herramienta remix para reinterpretar images de baja resolución en algo nuevo, como convertir fotos de videojuegos de baja resolución en un moderno images realista, o convertirte a ti mismo en una caricatura o anime ilustración. Este vídeo te muestra cómo:
Más herramienta (comando de respuesta)
La herramienta Más crea variaciones de la misma imagen
Para ver el mismo tema en variaciones ligeramente diferentes, utilice la herramienta más.
Lo que sucede bajo el capó: El valor de seed aumenta y el de guidance se aleatoriza, conservando tu prompt original. Limitaciones: Puede exagerar guidance cuando se utilizan modelos Eficientes.
Para utilizar más, responde literalmente a una imagen haciendo clic con el botón derecho, como si estuvieras hablando con una persona. Los comandos de respuesta se utilizan para manipular images e inspeccionar la información, como IMG2IMG o buscar la indicación original.
MÁS SINTAXIS
more es el comando Reply más común. Le devuelve un images similar al responder a una imagen ya generada por un prompt. El comando /more no funciona con una imagen cargada.
/more
El comando more es más potente de lo que parece. También acepta Fuerza, Guidance, y Tamaño, así que puedes usarlo como un escalador de segunda fase también, particularmente útil para modelos de Difusión Estable 1.5. Echa un vistazo a este video tutorial para dominarlo.
Herramienta para pintar
AKA Relleno Generativo
Inpainting es una herramienta de enmascaramiento que permite dibujar una máscara alrededor de un área y provocar algo nuevo en ella, o eliminar el objeto como una goma de borrar mágica. La herramienta inpaint tiene su propio cuadro de aviso positivo y negativo, que también acepta códigos de disparo para concepts.
Nota: Nuestro software ha sido actualizado desde este vídeo, pero los mismos principios siguen siendo válidos.
RELLENO GENERATIVO, TAMBIÉN CONOCIDO COMO INPAINTING
Inpaint es útil para cambiar un área puntual de una foto. A diferencia de After Detailer, la herramienta inpaint le permite seleccionar y enmascarar el área que desea cambiar.
Esta herramienta tiene una GUI - está integrada con Stable2go. Inpaint abre un navegador web donde usted literalmente pintará sobre la foto, creando un área enmascarada que puede ser solicitada. Inpainting es posible en una foto cargada no AI (cambiar las manos, el cielo, corte de pelo, ropa, etc.), así como AI images.
/inpaint luciérnagas zumbando por la noche
En la GUI, hay estilos de arte especiales y específicos (inpaint models) disponibles en el desplegable de esta herramienta, así que no olvide seleccionar uno. . Utilice la fuerza y guidance para control el efecto, donde la Fuerza se refiere a su inpaint pronta solamente.
/inpaint /size:512x768 /strength:1 /guidance:7 fireflies at (night)
Consejo: El tamaño se heredará de la imagen original, y se recomienda 512×768. Se recomienda especificar un tamaño, ya que de lo contrario el valor predeterminado es 512×512, lo que podría aplastar la imagen. Si una persona está lejos en la imagen, su cara puede cambiar a menos que la imagen sea de mayor fidelidad.
También puede invertir inpaint, como, por ejemplo, utilizar primero el comando /bg para eliminar automáticamente el fondo de una imagen y, a continuación, pedir que se cambie el fondo. Para ello, copie el ID de máscara de los resultados de /bg . A continuación, utilice la propiedad /maskinvert
/inpaint /mask :IAKdybW /maskinvert una majestuosa vista del cielo nocturno con planetas y cometas pasando a toda velocidad
OUTPAINT AKA LIENZO ZOOM Y PANORÁMICA
ÚLTIMA VERSIÓN (FLUX)
Expandir cualquier imagen utilizando las mismas reglas que inpaint, pero sin una interfaz gráfica de usuario, por lo que debemos especificar una palabra de activación para qué tipo de arte style a utilizar. Se puede especificar en qué dirección va con un valor de ranura
/workflow /run:zoomout-flux fireflies at night
DIRECCIONAL CONTROL
Puede añadir relleno utilizando los valores de las ranuras, en sentido contrario a las agujas del reloj. Así slot1 = TOP
/workflow /run:zoomout-flux fireflies at night /slot1:200 /slot2:50 /slot3:100 /slot4:300
VERSIONES ANTERIORES (SDXL)
Expande cualquier imagen utilizando las mismas reglas que inpaint, pero sin GUI, por lo que debemos especificar una palabra desencadenante para saber qué tipo de arte style utilizar. Se utilizan exactamente los mismos modelos inpaint para outpainting. Aprende los nombres navegando por la página de modelos o utilizando
Puede consultar los modelos disponibles en /concept /inpainting
/outpaint fireflies at night <sdxl-inpainting>
Outpaint tiene parámetros adicionales. Utilice arriba, derecha, abajo e izquierda para control la dirección en la que debe expandirse el lienzo. Si omites lateral, irá en las cuatro direcciones uniformemente. También puede añadir bokeh de fondo blur (1-100), factor zoom (1-12) y contracción del área original (0-256). Añade fuerza para reajustarlo.
/outpaint /side:top /blur:10 /zoom:6 /contract:50 /strength:1 the moon is exploding, fireworks <sdxl-inpainting>
Parámetros opcionales
/side:abajo/arriba/izquierda/derecha - puedes especificar una dirección para expandir tu imagen o entrar en las cuatro a la vez si no añades este comando.
/blur:1-100 - difumina el borde entre el área original y la recién añadida.
/zoom:1-12 - afecta a la escala de toda la imagen, por defecto está ajustada a 4.
/contract:0-256 - hace que el área original sea más pequeña en comparación con la pintada. Por defecto, está ajustado a 64.
CONSEJO: Para obtener mejores resultados, cambie sus indicaciones para cada uso de outpaint e incluya sólo las cosas que desea ver en el área recién ampliada. Copiar las indicaciones originales no siempre funciona como se pretende.
Quitar la herramienta BG
Zapping de fondo a la velocidad del rayo
La herramienta de eliminación del fondo es una solución sencilla, de un solo paso, para eliminar todo lo que hay detrás del sujeto. Images a 800×800 o alrededor de 800×800 funciona mejor. También puedes utilizar la herramienta de pintar (arriba) para enmascarar y crear un nuevo fondo.
COMANDOS DE ELIMINACIÓN EN SEGUNDO PLANO
Para eliminar un fondo realista, basta con responderle con /bg
/bg
Para ilustraciones de cualquier tipo, añada este parámetro anime y la eliminación será más nítida
/bg /anime
También puede añadir el parámetro PNG para download una imagen sin comprimir. Por defecto devuelve un JPG de alta resolución.
/bg /format:png
También puede utilizar un valor de color hexadecimal para especificar el color del fondo
/bg /anime /format:png /color:FF4433
También puedes download la máscara por separado
/bg /máscaras
Consejo: ¿Qué puedo hacer con la máscara? ¡Para señalar sólo el fondo! Sin embargo, no se puede hacer en un solo paso. En primer lugar responder a la máscara con /showprompt para obtener el código de imagen nosotros para inpainting, o elegirlo de la inpainting máscaras recientes. Añadir /maskinvert al fondo en lugar del primer plano al hacer un render.
REEMPLAZAR FONDO
También puede utilizar los comandosControlNet style para cambiar el fondo de un preajuste:
- Sube un fondo o render uno
- Responder a la foto de fondo con /control /new :Dormitorio (o cualquier habitación/área)
- Cargar o render la imagen de destino, la segunda imagen que recibirá el fondo almacenado.
- Responda al objetivo con /bg /replace:Bedroom /blur:10
El parámetro blur está entre 0-255, que controla el difuminado entre el sujeto y el fondo. Reemplazar fondo funciona mejor cuando todo el sujeto está a la vista, es decir, cuando partes del cuerpo o del objeto no están obstruidas por otro objeto. Esto evitará que la imagen flote o cree una envoltura de fondo poco realista.
GIRAR UN OBJETO
Puede rotar cualquier imagen, como si fuera un objeto 3D. Funciona mucho mejor después de eliminar primero el fondo con /bg
/spin
Spin funciona mejor después de eliminar el fondo. El comando spin admite /guidance. Nuestro sistema elige aleatoriamente un guidance 2 - 10. Para mayor detalle, añada también /steps:100
DESCRIBIR UNA FOTO
¡Actualizado! Ahora hay dos modos de describir: CLIP y FLORENCE2
¡Genera un prompt a partir de cualquier imagen con visión por ordenador con Describe! Es un comando de "respuesta", así que haz clic derecho sobre la imagen como si fueras a hablar con ella, y escribe
/describe /florence
El parámetro adicional Florence le ofrece una indicación mucho más detallada. Utiliza el nuevo modelo de visión por ordenador Florence2. /describe por sí mismo utiliza el modelo CLIP
Ejemplo
Lanzar widgets dentro de PirateDiffusion
Puede crear botones predefinidos para facilitar la creación de pulsadores, sin necesidad de aprender a codificar. Esto es posible gracias a nuestro sistema de Widgets. Simplemente rellena una hoja de cálculo con tus plantillas de pulsadores, y conéctala a tu bot. Por ejemplo, proporcionamos una plantilla para un personaje que hace widget:
Los widgets crean Telegram y WebUI al mismo tiempo, ¡para que puedas disfrutar de ambos! Ver un Vídeo sobre Widgets y download la plantilla para empezar a construir. ¡No es necesario programar!
Gestión de archivos y colas
CANCELAR
Utilice /cancel para abortar lo que está renderizando
/cancel
DOWNLOAD
Los images que ves en Telegram están usando el compresor de imagen incorporado en Telegram. Esto limita el tamaño del archivo.
Para evitar Telegram, responde a tu imagen con /download para obtener una imagen RAW sin comprimir.
/download
Si download solicita password, consulte la sección Compartir galería privada y contraseñas de esta hoja de trucos.
BORRAR
Hay dos maneras de eliminar images: localmente desde tu dispositivo, o para siempre desde tu Cloud Drive.
Para borrar images de tu dispositivo local, pero mantenerlas en Cloud Drive, usa la función de borrado de Telegram. Mantén pulsada una imagen (o haz clic derecho en ella desde el PC) y elige eliminar.
Responde a una imagen con /delete para borrarla de tu disco en la nube.
/delete
También puede escribir /webui y lanzar nuestro gestor de archivos, y utilizar el comando organizar para eliminar por lotes images todos a la vez.
HISTORIA
Ver una lista de tus images creados recientemente, dentro de ese canal de Telegram dado. Cuando se usa en grupos públicos, solo mostrará images que ya hayas creado en ese canal público únicamente, por lo que /history también es sensible a tu privacidad.
/history
SHOWPROMPT & COMPARAR
Para ver el indicador de una imagen, haga clic con el botón derecho sobre ella y escriba /showprompt
/showprompt
Este práctico comando le permite inspeccionar cómo se hizo una imagen. Te mostrará la última acción que se realizó sobre la imagen. Para ver el historial completo, escríbalo así: /showprompt /history
Hay una herramienta de comparación de imágenes integrada en la salida de showprompt . Haga clic en ese enlace y la herramienta se abrirá en el navegador.
DESCRIBIR (CLIP)
El comando /showprompt le dará la indicación exacta de una imagen AI, pero ¿qué pasa con las imágenes no AI images?
Nuestro comando /describe utilizará técnicas de visión por ordenador para escribir un aviso sobre cualquier foto que hayas subido.
/describe
El lenguaje que utiliza /describe a veces puede resultar curioso. Por ejemplo, "arafed" significa persona divertida o animada.
PNG
Por defecto, PirateDiffusion crea images en JPG casi sin pérdidas. También puede crear images como PNG de mayor resolución en lugar de JPG. Advertencia: Esto consumirá entre 5 y 10 veces más espacio de almacenamiento. Sin embargo, hay una pega. Telegram no muestra los archivos PNG de forma nativa, así que después de crear el PNG, usa el comando /download (arriba) para verlo.
/render a cool cat #everythingbad /format:png
VECTOR
IMAGEN A SVG / VECTOR Responder a una imagen generada o subido a trace como vectores, específicamente SVG. Vectores images que se puede ampliar infinitamente, ya que no se representan con píxeles rasterizados como regular images; por lo que tiene claros bordes nítidos. Ideal para impresión, productos, etc. Utilice el comando /bg si va a crear un logotipo o una pegatina.
/trace
A continuación se enumeran todas las opciones disponibles. Aún no conocemos las opcionales, así que ayúdanos a llegar a un buen valor predeterminado compartiendo tus hallazgos en el chat VIP.
- speckle - número entero - por defecto 4 - rango 1 .. 128 - Descarta parches de tamaño inferior a X px
- color - por defecto - hacer que el color de la imagen
- bw - hacer la imagen en blanco y negro
- mode - polígono, spline o ninguno - spline por defecto - Ajuste de curvas mode
- precisión - número entero - por defecto 6 - rango 1 .. 8 - Número de bits significativos a utilizar en un canal RGB - es decir, más fidelidad de color a costa de más "manchas".
- gradient - número entero - por defecto 16 - rango 1 ..128 - Diferencia de color entre capas gradient
- corner - integer number - default 60 - range 1 .. 180 - Ángulo momentáneo mínimo (grados) para ser considerado un corner
- length - número en coma flotante - por defecto 4 - rango 3.5 .. 10 - Realizar subdivisión iterativa suave hasta que todos los segmentos sean más cortos que esto length
Ejemplo trace con parámetros de ajuste fino opcionales:
/trace /color /gradient:32 /corner:1
GESTOR DE ARCHIVOS WEB UI
Práctico para gestionar tus archivos en un navegador y consultar rápidamente una lista visual de modelos.
/webui
Consulta la sección de cuentas en la parte superior de esta página para cosas como los comandos password .
RENDER PROGRESO MONITOR
Inevitablemente, Telegram tiene problemas de conexión de vez en cuando. Si quieres saber si nuestros servidores están haciendo el images pero no están llegando a Telegram, usa este comando. Puedes render y recoger tu images desde Cloud Drive.
/monitor
Si /monitor no funciona, prueba con /start. Esto le dará un empujón al bot.
PING
"¿Nos hemos caído, se ha caído Telegram o la cola se ha olvidado de mí?". /ping intenta responder a todas estas preguntas de un vistazo
/ping
Si /ping no funciona, prueba con /start. Esto le dará un empujón al bot.
SETTINGS
Puedes anular la configuración por defecto de tu bot, como seleccionar sólo un sampler, steps, y una muy útil: establecer tu modelo base favorito en el lugar de Stable Diffusion 1.5
/settings
Disponible settings:
/settings /concept:none
/settings /guidance:random
/settings /style:none
/settings /sampler:random
/settings /steps:default
/settings /silent:off
Presta mucha atención a los mensajes de estado cuando realices un cambio de configuración, ya que te indicarán cómo revertir el cambio. A veces, para revertir se requiere el parámetro off, none, o default
Antes de hacer un cambio en los valores por defecto, es posible que desees save los valores por defecto como un loadout, como se explica a continuación, para que puedas volver atrás si no estás contento con tu configuración y quieres empezar de nuevo.
CARGAS
El comando /settings también muestra tus cargas en la parte inferior de la respuesta.
Facilita el cambio de flujos de trabajo guardando los loadouts. Por ejemplo, puede que tengas un modelo base y sampler preferidos para anime, y otro diferente para el realismo, o algún otro settings para un proyecto o cliente específico. Los Loadouts te permiten reemplazar todos tus settings en un instante.
Por ejemplo, si quisiera save mi settings tal cual, puedo inventarme un nombre como Morgan's Presets Feb 14:
/settings /save:morgans-presets-feb14
Gestiona tus equipamientos:
Save actual settings: /settings /save:coolset1
Mostrar actual settings: /settings /show:coolset1
Recuperar una configuración: /settings /load:coolset1
SILENT MODE
¿Los mensajes de depuración, como la confirmación de la repetición del aviso, son demasiado prolijos? Puedes hacer que el bot sea completamente silent con esta función. Eso sí, no olvides que la has activado o pensarás que el bot te ignora, ¡ni siquiera te dirá la hora estimada de render ni te confirmará nada!
/settings /silent:on
Para volver a encenderlo, basta con cambiar ON por OFF
Obsoleto y experimental
Esta es una colección de experimentos y los comandos más antiguos todavía son compatibles, pero han sido reemplazados por técnicas más nuevas. Estos son difíciles de recomendar para la producción, pero todavía divertido de usar.
PUNTUACIÓN ESTÉTICA
Estética es una opción experimental que permite un modelo de evaluación de la estética en una imagen renderizada, como parte del proceso de renderizado. También está disponible en la API Graydient .
Estos modelos de aprendizaje automático intentan calificar la calidad visual / belleza de una imagen de forma numérica
/render a cool cat <sdxl> /aesthetics
Devuelve una puntuación estética ("belleza") de 1 a 10 y una puntuación de artefactos de 1 a 5 (cuanto más baja, mejor). Para ver lo que se considera bueno o malo, aquí está el conjunto de datos. La puntuación también puede verse en /showprompt
BREW
Brew se sustituyó por /polly. (solía añadir efectos aleatorios)
/brew un perro guay = /polly perro guay
Esto devuelve el mismo resultado.
MEME
Añadimos este como una broma, pero todavía funciona y es bastante hilarante. Puedes añadir el texto del meme Internet Huge IMPACT font a la parte superior e inferior de tu imagen, una sección a la vez.
/meme /top:Uno no se limita a
(siguiente turno)
/meme /bottom:Entra en Mordor
INSTRUIR PIX 2 PIX
Reemplazado por: Inpaint, Outpaint, y Remix
Esto era lo que estaba de moda en su momento, una tecnología llamada Instruct Pix2Pix, el comando /edit. Responder a una foto como esta:
/editar añadir fuegos artificiales al cielo
Haga preguntas del tipo "qué pasaría si" style para images de paisajes y naturaleza, en lenguaje natural para ver los cambios. Aunque esta tecnología es genial, Instruct Pix2Pix produce resultados de baja resolución, por lo que es difícil de recomendar. También está bloqueado en su propio arte style, por lo que no es compatible con nuestros concepts, loras, embeddings, etc. Está bloqueado a una resolución de 512×512. Si usted está trabajando en lewds o anime, es la herramienta equivocada para el trabajo. Utilice /remix instead.You también puede control el efecto con un parámetro de fuerza
/edit /strength:0.5 ¿Y si se incendian los edificios?
ESTILOS
Estilos fue sustituido por el sistema de recetas más potente. Los estilos se utilizan para crear atajos de teclado personales que no están pensados para ser compartidos. Puedes intercambiar estilos con otra persona usando el comando copiar, pero no funcionarán sin conocer esos códigos. Nuestros usuarios encontraron esto confuso, por lo que las recetas son globales. Para explorar esta característica, escriba:
/estilos