PirateDiffusion Guia
Pirate Diffusion
- Visão geral
- Fundamentos
- Comandos
- Feedback
Visão geral
Pirate Diffusion da Graydient AI é o bot mais poderoso do Telegram. É um bot multimodal, o que significa que ele lida com grandes modelos de linguagem como DeepSeek e Llama 3.3, dezenas de milhares de modelos de imagem como FLUX, Stable Diffusion 3.5, AuraFlow, Pony e SDXL e também modelos de vídeo como Hunyuan e LightTricks (LTX).
Valor incrível
Diferentemente de outros serviços de IA generativa, não há necessidade de "tokens" ou "créditos". O PirateDiffusion foi projetado para uso ilimitado, isento de royalties, e é fornecido com o Graydient's webUI.
Por que usar um bot?
É extremamente rápido e leve no celular, e você pode usá-lo sozinho ou em grupos de estranhos ou com amigos. Nosso community está criando macros de bate-papo para fluxos de trabalho poderosos do ComfyUI, para que você obtenha todos os benefícios de um resultado de renderização de desktop a partir de um simples bot de bate-papo. É uma loucura.
O que mais ele pode fazer?
Images, vídeo e LLM chats. Ele pode fazer praticamente tudo.
Você pode criar images 4k com apenas alguns toques no teclado, sem uma GUI. Você pode usar todos os principais recursos do Stable Diffusion via chat. Alguns recursos exigem uma interface visual, e uma página da Web é exibida para eles (integração com a WebUI unificada)
Crie você mesmo com seu bot particular ou participe de grupos e veja o que outras pessoas estão fazendo. Você também pode criar um bots temático, como o /animebot, que conecta nossos LLMs do PollyGPT aos modelos do StableDiffusion, e conversar com eles para ajudá-lo a criar! Crie um workflow que seja totalmente exclusivo para você usando loadouts, recipe (macros) widgets (construtor de guias visuais) e bots personalizado. Ele faz muito!
História de origem
O nome Pirate Diffusion vem do modelo Stable Diffusion 1.5 que vazou em outubro de 2022, que foi de código aberto. Criamos o primeiro bot do Stable Diffusion no Telegram e milhares de pessoas apareceram, e foi assim que começamos. Mas para deixar bem claro: não há pirataria aqui, apenas adoramos o nome. Ainda assim, um número suficiente de pessoas (e nosso banco) disse que o nome era um pouco exagerado, então renomeamos nossa empresa para "Graydient", mas adoramos Pirate Diffusion. Ele atrai pessoas divertidas e interessantes.
A geração ilimitada de vídeos está aqui para os membros Plus!
Texto para vídeo
/wf /run:video cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
No LTX, a estrutura do prompt é muito importante. Um prompt curto resultará em uma imagem estática. Um prompt com muitas ações e instruções fará com que o vídeo se desloque para diferentes salas ou personagens aleatórios.
- Primeiro, descreva o que a câmera está fazendo ou quem ela está seguindo. Por exemplo, uma câmera de ângulo baixo zoom, uma câmera aérea, uma panorâmica lenta, um zoom para fora ou para longe, etc.
- Em seguida, descreva o sujeito e uma ação que ele está realizando sobre o que ou quem. Essa parte requer prática! No exemplo acima, observe que Ronald comendo o hambúrguer veio depois da configuração da câmera e da cena
- Descreva a cena. Isso ajuda a IA a "segmentar" as coisas que você deseja ver. Portanto, em nosso exemplo, descrevemos o traje e o fundo do palhaço.
- Forneça material de referência de apoio. Por exemplo, diga "Isso parece uma cena de um filme ou programa de TV"
- You can specify a Flux lora to control the art direction or character likeness. Add this to the end of the prompt like <muscularwoman-flux>
- Você pode especificar o tamanho como /size:468×832 e /guidance para control o efeito "HDR"
Fluxos de trabalho adicionais
Esses fluxos de trabalho de vídeo estão disponíveis agora mesmo, estamos no ar!
vídeo = LTX em tamanho real com integração Flux na primeira etapa para loras. Caso de uso: vídeos bonitos, mas curtos. Nosso vídeo de melhor aparência workflow, sem dúvida.
video-medium = Bem arredondado. Pode lidar bem com movimentos. Não usa loras, mas é rápido e pode fazer vídeos mais longos do que o flux .
video-turbo = O mais rápido, com uma desvantagem de qualidade. Melhor para temas estáticos e animações sutis. Pode ter uma boa aparência em tamanhos maiores e steps, gosto de começar minhas ideias aqui para ver se elas serão animadas e, em seguida, mover meu seed e outros settings para cima na cadeia.
Há também alguns *ahem* picantes, digite o comando /workflow para navegar por todos eles.
Imagem para vídeo
Você também pode carregar uma foto e transformá-la em um vídeo. Para fazer isso, primeiro cole a foto no bate-papo e clique em "Reply" (Responder) como se fosse falar com a foto e, em seguida, dê a ela um comando como este:
/wf /run:animate camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe
Há dois níveis desse vídeo workflow, que são:
animar = converter uma imagem em vídeo
animate-turbo = o mesmo, usando modelos pequenos/rápidos
Parâmetros especiais:
/slot1 = length do vídeo em quadros. Os settings seguros são 89, 97, 105, 113, 121, 137, 153, 185, 201, 225, 241, 257. Mais é possível, mas instável
/slot2 = quadros por segundo. Recomenda-se 24. Os fluxos de trabalho turbo são executados a 18 fps, mas podem ser alterados. Acima de 24 é cinematográfico, 30 fps parece mais realista. 60 fps é possível em quadros baixos, mas parece uma velocidade de esquilo.
Limitações:
- Você deve ser um membro do Graydient Plus para experimentar a versão beta
- Muitas amostras de vídeo estão disponíveis no canal VIP e Playroom hoje. Venha participar e nos envie suas ideias rápidas enquanto damos os toques finais no vídeo.
Anterior / Changelog:
- Adição de vídeos de Hunyuan e LightTricks / LTX com suporte a lora
- Adicionado o Llama 3.3 e muitos outros LLMs; digite o comando //lm para procurá-los
- Agora você pode usar até seis loras Flux com determinados fluxos de trabalho Flux
- Um HD Anime Illustrious workflow foi adicionado. Fresco!
- Flux Redux, Flux Controlnet Depth e muitos novos fluxos de trabalho já estão disponíveis
- Melhor pintura! Tente responder a uma foto com /zoomout-flux
- Melhor integração com o LoRamaker. Use /makelora para criar uma lora privada em seu navegador da Web e, em seguida, use-a no Telegram em poucos minutos
- Novo comando LLM*. Digite /llm seguido de qualquer pergunta. Atualmente, ele é alimentado pelo modelo Llama 3, com 70 bilhões de parâmetros, e é rápido! Não censuramos seus prompts, mas o modelo em si pode ter algumas de suas próprias proteções. *LLM é a abreviação de "Large Language Model" (Modelo de linguagem grande), como nos modelos de bate-papo semelhantes ao ChatGPT.
- Muitos pontos de controle do FLUX estão aqui. Digite /workflows para explorá-los e obter seus comandos. Outra novidade: um atalho para fluxos de trabalho é /wf. Tutorial em vídeo
- Mais modelos, mais de 10.000! Experimente o novo Juggernaut 9 Lightning, que é mais rápido do que o Juggernaut X. Você também pode usá-lo apenas adicionando esta hashtag: #jugg9
- Florence Modelo de visão computacional adicionado - Carregue qualquer foto e digite /describe / florence para obter uma descrição detalhada e vívida para usar em seus fluxos de trabalho
- O site bots personalizado agora pode reter memórias. Consulte "memórias" no tutorial do PollyGPT
- Melhor monitoramento do render ! Digite /monitor para abri-lo, é uma pequena página da web. Se os servidores do Telegram de sua cidade estiverem ocupados ou off-line, o images poderá ser acessado de nosso Cloud Drive muito mais rapidamente!
- Novo Bots! Experimente: /xtralargebot /animebot /lightningbot e bots tagarelas como /kimmybot /angelinabot /nicolebot /senseibot
- Os membros do plano Plus agora podem escolher o parâmetro Llama3 70 bilhões para seus bots
- Novas receitas: Experimente #quick para HD rápido images, ou #quickp para retratos, #quickw para imagens amplas
- Polly Atualizado! - Use /polly para conversar com o bot e clique com o botão direito do mouse em responder para conversar
- Polly agora também usa apenas os modelos que você marcou como favoritos em My Models
- O novo comando /unified envia images para o Stable2go para edição na Web
- O novo comando /bots - personalize Polly de acordo com seu gosto, LLM + modelos de imagem!
O que vem a seguir?
Sugira um recurso e dê um voto positivo nas ideias dos outros.
Veja o que está por vir em nosso roteiro e o que acabou de chegar em nosso registro de mudanças.

Pré-fabricados e personalizados bots
BÁSICOS: O comando LLM
/llm who would win a fight between a pacifist tiger with a shotgun or a thousand angry penguins parachuting above with forks and knives?
Digite /llm (como LLM, modelo de linguagem grande) e faça uma pergunta, semelhante ao ChatGPT. Ele é alimentado pelo modelo Llama3 de 70 bilhões de parâmetros.
CRIE SEU PRÓPRIO AGENTE LLM
Para mudar para outro modelo e personalizar um personagem de chatbot alternativo, faça login em my.graydient.ai e clique em chatbots para escolher outros LLMs, como Mixtral e Wizard
Apresentando "POLLY"
Polly é um dos personagens do site PirateDiffusion que fala e cria images. Experimente:
Quando você estiver no @piratediffusion_bot, poderá conversar com Polly da seguinte forma:
/polly a silly policeman investigates a donut factory
Você também pode usá-lo em seu navegador da Web fazendo login em my.graydient.ai e clicando no ícone Chat Bots .
INTRODUÇÃO AO COSTUME BOTS
Polly é apenas um dos muitos personagens criados por nosso community. Para ver uma lista de outros personagens públicos, digite:
/bots
Para criar um novo, digite
/bots /new
Isso iniciará o PollyGPT no seu navegador da Web para treinar seu próprio personagem, que poderá ser acessado posteriormente como um personagem no seu @piratediffusion_bot.
EXPLORANDO O COSTUME BOTS
A IA community está repleta de muitos criadores interessantes. Alguns estão abrindo modelos de idiomas grandes (alternativas ao ChatGPT) e modelos de imagens de código aberto (alternativas ao DALLE e ao MJ). Nosso software original reúne essas duas coisas em um criador de "bots" fácil de usar no Telegram ou na Web. Visite nossa página Polly GPT docs - agora com memórias! para obter mais informações e modelos para criar seu próprio bots.
Ativação de seu bot
É necessário ter uma conta Graydient e uma conta Telegram (gratuita) para usar o PirateDiffusion. Configure-a
Precisa de ajuda com seu bot? Preso no site gratuito mode? Entre em contato conosco

Noções básicas sobre contas
NOVO USUÁRIO
/start
COMO COMEÇAR
Faça login em my.graydient.ai, localize o ícone Setup no painel e siga as instruções.
Se precisar de ajuda, entre em contato com nosso canal de suporte
/email [email protected]
Se você atualizou sua conta no Patreon, seu e-mail e os e-mails do Patreon devem corresponder. Se você não conseguir ativar e desbloquear todos os recursos, digite /debug e envie esse número
USERNAME
/username Tiny Dancer
O bot usará seu nome do Telegram como seu nome público community username (mostrado em lugares como receitas, em destaque images). Você pode alterar isso a qualquer momento com o comando /username , assim:WEBUI e PASSWORDPirateDiffusion vem com um site complementar para operações que são difíceis de fazer, como organizar seus arquivos e pintar. Para acessar seu arquivo, digite:
/webui
Ele é privado por padrão. Para definir seu password, use um comando como este
/community /password:My-Super-Secure-Password123@#$%@#$
Para desativar um password, digite
/community /password:none
O que faz um bom prompt?
Um prompt é uma descrição completa que informa à IA qual imagem deve ser gerada:
- Ele deve ser realista? Um tipo de obra de arte?
- Descreva a hora do dia, o ponto de vista e a iluminação
- Descreva bem o sujeito e suas ações
- Descreva o último local e outros detalhes
Exemplo básico:
Uma mulher loira de 25 anos, influenciadora do Instagram, vivendo o estilo de vida da van de viagem

Dicas de prompts rápidos
1. Sempre descreva o quadro completo, todas as vezes
Um prompt não é uma mensagem de bate-papo, o que significa que não é uma conversa de várias rodadas. Cada solicitação é uma nova vez no sistema, esquecendo tudo o que foi digitado na vez anterior. Por exemplo, se solicitarmos "um cachorro fantasiado", certamente o obteremos. Essa solicitação descreve completamente uma foto. Se solicitarmos apenas "make it red" (ideia incompleta), não veremos o cachorro porque "it" não foi transferido, portanto, a solicitação será mal interpretada. Sempre apresente a instrução completa.
2. A ordem das palavras é importante
Coloque as palavras mais importantes no início do prompt. Se estiver criando um retrato, coloque primeiro a aparência da pessoa e o que ela está vestindo, seguido de o que e onde ela está como os detalhes menos importantes.
3. Length também é importante
As palavras no início são as mais importantes, e cada palavra no final recebe cada vez menos atenção - até aproximadamente 77 "tokens" ou instruções. No entanto, você deve saber que cada IA concept em nosso sistema é treinada em um assunto diferente, portanto, a escolha da concept correta afetará a sua compreensão. É melhor ir direto ao ponto e aprender o concepts sistema abaixo) em vez de escrever prompts longos para obter resultados da mais alta qualidade.
Prompts positivos
Prompts positivos e prompts negativos são palavras que informam à IA o que queremos e o que não queremos ver. Os seres humanos normalmente não se comunicam de forma binária, mas, em um ambiente muito barulhento, podemos dizer "isso, mas aquilo!".
Positivo: Uma cena de praia durante o dia com areia azul clara, palmeiras
Negativo: Pessoas, barcos, biquínis, NSFW
Isso foi inserido nas duas caixas do editor do Stable2go, da seguinte forma:
Os prompts positivos contêm o tema e os detalhes de apoio da imagem. Isso ajuda a descrever a arte style e os arredores, bem como suas expectativas de estética. Exemplos:
- foto realista de melhor qualidade de um filhote de cachorro
- Desenho de uma obra-prima de um girassol, fundo bokeh
- Foto em ângulo baixo de uma scooter em uma entrada de garagem, aquarelas
- uma tartaruga com uma ((cerveja))

Tornar os aspectos positivos mais poderosos
Para dar mais ênfase a determinadas palavras, adicione parênteses aninhados. Isso aumenta seu fator em 1,1x.
No exemplo acima, estamos dizendo que "turtle" (tartaruga) é o assunto, porque aparece no início do prompt, mas a cerveja é igualmente importante, embora apareça mais tarde no prompt. Ao criar situações improváveis, a ênfase extra ajuda.
Prompts negativos
Negativos descreva o que você não quer na imagem.
Se você quer um Seamonster, mas não quer o mar, o monstro é o seu Positivo e o oceano é seu negativo.
Os negativos também podem incentivar a qualidade da foto, desestimulando a utilização de membros extras, baixa resolução, etc.

- (give me what I want) [but, not, these, things]
- (gato bonito) melhor qualidade [[[gato feio, baixa resolução, baixa qualidade]]]
- um cachorro (terrier, filhote), mas não um [gato, gatinho, bola de pelo, Garfield]
- you can also call a negative concept [[<fastnegative-xl>]]
Comandos profissionais
Crie o images como um profissional de difusão estável com esses parâmetros:
RENDER
Se você não quiser a ajuda de escrita de prompt do Polly ou do seu bots personalizado, mude para o comando /render para ficar totalmente manual. Experimente uma lição rápida.
/render a close-up photo of a gorilla jogging in the park <sdxl>
The trigger word <sdxl> refers to a concept
POSITIVOS E NEGATIVOS INLINE
Os positivos dizem à IA o que deve ser enfatizado. Isso é expresso com (colchetes redondos). Cada par de colchetes representa um múltiplo de 1,1x do reforço positivo. Os negativos fazem o oposto, usando colchetes [quadrados].
/render <sdxl> ((high quality, masterpiece, masterwork)) [[low resolution, worst quality, blurry, mediocre, bad art, deformed, disfigured, elongated, disproportionate, anatomically incorrect, unrealistic proportions, mutant, mutated, melted, abstract, surrealism, sloppy, crooked]] Takoyaki on a plate
Adicionar muitos colchetes pode limitar a capacidade de preenchimento da IA, portanto, se estiver observando falhas na imagem, tente reduzir o número de colchetes e inversões.
Dica: Como fazer edições rápidas de avisos:
Depois que um aviso for enviado, chame-o rapidamente pressionando a seta PARA CIMA no Telegram Desktop. Ou toque uma vez na confirmação do prompt ecoado que aparece em uma fonte alternativa. A ordem das palavras é importante. Coloque as palavras mais importantes na frente do prompt para obter melhores resultados: Ângulo da câmera, Quem, O quê, Onde.
TRADUZIR
Você prefere enviar o prompt em um idioma diferente? Você pode acessar render images em mais de 50 idiomas, como este:
/render /translate un perro muy guapo <sdxl>
Não é necessário especificar o idioma, ele simplesmente sabe. Ao usar a tradução, evite usar gírias. Se a IA não tiver entendido sua solicitação, tente reformulá-la em termos mais óbvios.
Limitações de tradução
Algumas gírias regionais podem ser mal interpretadas, portanto, use o recurso de tradução da forma mais literal e correta possível. Por exemplo, "cubito de hielo" pode significar um pequeno cubo de gelo ou um pequeno balde de gelo em espanhol, dependendo da região e da nuance contextual.
Para ser justo, isso também pode acontecer em inglês, pois a IA pode levar as coisas muito ao pé da letra. Por exemplo, um usuário solicitou um urso polar paracaçar e a IA lhe deu um rifle de precisão. Conformidade maliciosa!
Para evitar que isso aconteça, use várias palavras em seu prompt positivo e negativo.
RECIPE MACROS
As receitas são modelos de prompt. Um recipe pode conter tokens, samplers, modelos, inversões textuais e muito mais. Isso economiza muito tempo e vale a pena aprender se você estiver repetindo sempre as mesmas coisas em seu prompt.
Quando introduzimos as inversões negativas, muitas pessoas perguntaram "por que elas não estão ativadas por padrão?", e a resposta é control - todo mundo gosta de settings um pouco diferente. Nossa solução para isso foram as receitas: hashtags que invocam modelos de prompt.
Para ver uma lista deles, digite /recipes ou procure-os em nosso site: a lista principal de modelos de prompt
/recipes
A maioria das receitas foi criada pelo site community e pode ser alterada a qualquer momento, pois é gerenciada por seus respectivos proprietários. Um prompt deve ter apenas 1 recipe, ou as coisas podem ficar estranhas.
Há duas maneiras de usar o recipe. Você pode chamá-lo pelo nome usando uma hashtag, como o "quick" recipe:
/render a cool dog #quick
Algumas receitas populares são #nfix e #eggs e #boost e #everythingbad e #sdxlreal.
Importante: Ao criar um recipe, é necessário adicionar $prompt em algum lugar na área de prompt positivo, caso contrário, o recipe não poderá aceitar sua entrada de texto. Você pode inseri-lo em qualquer lugar, pois é flexível.
No campo "outros comandos", você pode empilhar outros parâmetros de aumento de qualidade abaixo.
COMPOSE
Compose permite a criação de vários prompts e várias regiões. As zonas disponíveis são: fundo, inferior, centro inferior, esquerda inferior, direita inferior, centro, esquerda, direita, superior, centro superior, esquerda superior, direita superior. O formato de cada zona é x1, y1, x2, y2
/compose /size:2000x700 /left:The tower of Thai food /center:Jungles of Thailand, tropical rainforest [blurry] /right: Castle made of stone, castle in the jungle, tropical vegetation
Outro exemplo
/compose /seed:1 /images:2 /size:384×960 /top:ZeldaKingdom GloomyCumulonimbus /bottom:1983Toyota Have a Cookie /guidance:5
Dica: Use um guidance de cerca de 5 para obter uma melhor combinação. Você também pode especificar o modelo. Guidance aplica-se a toda a imagem. Estamos trabalhando para adicionar o guidance regional.
/compose /size:1000x2000 /top: Lion roaring, lion on top of building /center: Apartment building, front of building, entrance /bottom: Dirty city streets, New York city streets [[ugly]] [[blurry] /images:1 /guidance:7
BLEND
(ADAPTADORES DE IP)
Pré-requisito: Primeiro, domine o site ControlNet .
Blend permite fundir vários images que estão armazenados images de sua biblioteca ControlNet . Isso se baseia em uma tecnologia chamada Adaptadores IP. Esse é um nome terrivelmente confuso para a maioria das pessoas, por isso o chamamos apenas de blend.
Primeiro, crie algumas imagens predefinidas concepts colando uma foto em seu bot e dando-lhe um nome exatamente como você faria para ControlNet. Se você já tiver controles salvos, eles também funcionarão.
/control /new:chicken
Depois de ter duas ou mais dessas opções, você pode blend juntá-las.
/render /blend:chicken:1 /blend:zelda:-0.4
Dica: Os Adaptadores IP suportam images negativo. Recomenda-se subtrair uma imagem com ruído para obter imagens melhores.
Você pode control o ruído dessa imagem com /blendnoise
O padrão é 0,25. Você pode desativar com /blendnoise:0.0
Você também pode definir a intensidade do efeito dos adaptadores IP com /blendguidance - o padrão é 0,7
Dica: O site Blend também pode ser usado para pintar e usar modelos SDXL
DEPOIS DO DETALHADOR
O comando /render tem muitos parâmetros poderosos. Um dos mais populares é o After Detailer, também conhecido como Adetailer
/render /adetailer a close-up photo of a gorilla jogging in the park <sdxl>
Isso fará a varredura da imagem em busca de mãos, olhos e rostos ruins imediatamente após a criação da imagem e os corrigirá automaticamente. Funciona com SDXL e SD15 a partir de março de 24
Limitações:
Pode não detectar faces viradas a ~15 graus ou criar duas faces nesse caso.
O After Detailer funciona melhor quando usado com bons prompts positivos e negativos e inversões, explicados abaixo:
FREE U
FreeU (Free Lunch in Diffusion U-Net) é um detalhista experimental que expande o intervalo guidance em quatro intervalos separados durante o render. Há quatro valores possíveis, cada um entre 0 e 2.
b1: fator de backbone do primeiro estágio
b2: fator de backbone do segundo estágio
s1: fator de pulo do primeiro estágio
s2: fator de pulo do segundo estágio
/render <av5> a drunk horse in Rome /freeu:1.1,1.2,0.9,0.2
Comandos de criação de imagens
POLLY
Polly é seu assistente de criação de imagens e a maneira mais rápida de escrever prompts detalhados. Quando você 'Fave um modelo em concepts, Polly escolherá um de seus favoritos aleatoriamente.
Para usar o Polly no Telegram, fale com ele da seguinte forma:
/polly a silly policeman investigates a donut factory
A resposta conterá um prompt que você pode render ali mesmo ou copiar para a área de transferência para usar com o comando /render (explicado abaixo).
Você também pode ter uma conversa de bate-papo regular iniciando com /raw
/polly /raw explain the cultural significance of japanese randoseru
Você também pode usá-lo em seu navegador da Web fazendo login em my.graydient.ai e clicando no ícone Polly .
BOTS
Polly pode ser personalizado. Você pode treinar seu assistente
/bots
Bots exibirá uma lista dos assistentes que você criou. Por exemplo, se minha assistente for Alice, posso usá-la como /alicebot go make me a sandwich. O @piratediffusion_bot deve estar no mesmo canal que você.
Para criar um novo, digite
/bots /new
RENDER
Se você não quiser a ajuda de escrita de prompt do Polly ou do seu bots personalizado, mude para o comando /render para ficar totalmente manual. Experimente uma lição rápida.
/render a close-up photo of a gorilla jogging in the park <sdxl>
The trigger word <sdxl> refers to a concept
POSITIVOS E NEGATIVOS INLINE
Os positivos dizem à IA o que deve ser enfatizado. Isso é expresso com (colchetes redondos). Cada par de colchetes representa um múltiplo de 1,1x do reforço positivo. Os negativos fazem o oposto, usando colchetes [quadrados].
/render <sdxl> ((high quality, masterpiece, masterwork)) [[low resolution, worst quality, blurry, mediocre, bad art, deformed, disfigured, elongated, disproportionate, anatomically incorrect, unrealistic proportions, mutant, mutated, melted, abstract, surrealism, sloppy, crooked]] Takoyaki on a plate
Adicionar muitos colchetes pode limitar a capacidade de preenchimento da IA, portanto, se estiver observando falhas na imagem, tente reduzir o número de colchetes e inversões.
Dica: Como fazer edições rápidas de avisos:
Depois que um aviso for enviado, chame-o rapidamente pressionando a seta PARA CIMA no Telegram Desktop. Ou toque uma vez na confirmação do prompt ecoado que aparece em uma fonte alternativa. A ordem das palavras é importante. Coloque as palavras mais importantes na frente do prompt para obter melhores resultados: Ângulo da câmera, Quem, O quê, Onde.
TRADUZIR
Você prefere enviar o prompt em um idioma diferente? Você pode acessar render images em mais de 50 idiomas, como este:
/render /translate un perro muy guapo <sdxl>
Não é necessário especificar o idioma, ele simplesmente sabe. Ao usar a tradução, evite usar gírias. Se a IA não tiver entendido sua solicitação, tente reformulá-la em termos mais óbvios.
Limitações de tradução
Algumas gírias regionais podem ser mal interpretadas, portanto, use o recurso de tradução da forma mais literal e correta possível. Por exemplo, "cubito de hielo" pode significar um pequeno cubo de gelo ou um pequeno balde de gelo em espanhol, dependendo da região e da nuance contextual.
Para ser justo, isso também pode acontecer em inglês, pois a IA pode levar as coisas muito ao pé da letra. Por exemplo, um usuário solicitou um urso polar paracaçar e a IA lhe deu um rifle de precisão. Conformidade maliciosa!
Para evitar que isso aconteça, use várias palavras em seu prompt positivo e negativo.
RECIPE MACROS
As receitas são modelos de prompt. Um recipe pode conter tokens, samplers, modelos, inversões textuais e muito mais. Isso economiza muito tempo e vale a pena aprender se você estiver repetindo sempre as mesmas coisas em seu prompt.
Quando introduzimos as inversões negativas, muitas pessoas perguntaram "por que elas não estão ativadas por padrão?", e a resposta é control - todo mundo gosta de settings um pouco diferente. Nossa solução para isso foram as receitas: hashtags que invocam modelos de prompt.
Para ver uma lista deles, digite /recipes ou procure-os em nosso site: a lista principal de modelos de prompt
/recipes
A maioria das receitas foi criada pelo site community e pode ser alterada a qualquer momento, pois é gerenciada por seus respectivos proprietários. Um prompt deve ter apenas 1 recipe, ou as coisas podem ficar estranhas.
Há duas maneiras de usar o recipe. Você pode chamá-lo pelo nome usando uma hashtag, como o "quick" recipe:
/render a cool dog #quick
Algumas receitas populares são #nfix e #eggs e #boost e #everythingbad e #sdxlreal.
Importante: Ao criar um recipe, é necessário adicionar $prompt em algum lugar na área de prompt positivo, caso contrário, o recipe não poderá aceitar sua entrada de texto. Você pode inseri-lo em qualquer lugar, pois é flexível.
No campo "outros comandos", você pode empilhar outros parâmetros de aumento de qualidade abaixo.
COMPOSE
Compose permite a criação de vários prompts e várias regiões. As zonas disponíveis são: fundo, inferior, centro inferior, esquerda inferior, direita inferior, centro, esquerda, direita, superior, centro superior, esquerda superior, direita superior. O formato de cada zona é x1, y1, x2, y2
/compose /size:2000x700 /left:The tower of Thai food /center:Jungles of Thailand, tropical rainforest [blurry] /right: Castle made of stone, castle in the jungle, tropical vegetation
Outro exemplo
/compose /seed:1 /images:2 /size:384×960 /top:ZeldaKingdom GloomyCumulonimbus /bottom:1983Toyota Have a Cookie /guidance:5
Dica: Use um guidance de cerca de 5 para obter uma melhor combinação. Você também pode especificar o modelo. Guidance aplica-se a toda a imagem. Estamos trabalhando para adicionar o guidance regional.
/compose /size:1000x2000 /top: Lion roaring, lion on top of building /center: Apartment building, front of building, entrance /bottom: Dirty city streets, New York city streets [[ugly]] [[blurry] /images:1 /guidance:7
BLEND
(ADAPTADORES DE IP)
Pré-requisito: Primeiro, domine o site ControlNet .
Blend permite fundir vários images que estão armazenados images de sua biblioteca ControlNet . Isso se baseia em uma tecnologia chamada Adaptadores IP. Esse é um nome terrivelmente confuso para a maioria das pessoas, por isso o chamamos apenas de blend.
Primeiro, crie algumas imagens predefinidas concepts colando uma foto em seu bot e dando-lhe um nome exatamente como você faria para ControlNet. Se você já tiver controles salvos, eles também funcionarão.
/control /new:chicken
Depois de ter duas ou mais dessas opções, você pode blend juntá-las.
/render /blend:chicken:1 /blend:zelda:-0.4
Dica: Os Adaptadores IP suportam images negativo. Recomenda-se subtrair uma imagem com ruído para obter imagens melhores.
Você pode control o ruído dessa imagem com /blendnoise
O padrão é 0,25. Você pode desativar com /blendnoise:0.0
Você também pode definir a intensidade do efeito dos adaptadores IP com /blendguidance - o padrão é 0,7
Dica: O site Blend também pode ser usado para pintar e usar modelos SDXL
DEPOIS DO DETALHADOR
O comando /render tem muitos parâmetros poderosos. Um dos mais populares é o After Detailer, também conhecido como Adetailer
/render /adetailer a close-up photo of a gorilla jogging in the park <sdxl>
Isso fará a varredura da imagem em busca de mãos, olhos e rostos ruins imediatamente após a criação da imagem e os corrigirá automaticamente. Funciona com SDXL e SD15 a partir de março de 24
Limitações:
Pode não detectar faces viradas a ~15 graus ou criar duas faces nesse caso.
O After Detailer funciona melhor quando usado com bons prompts positivos e negativos e inversões, explicados abaixo:
FREE U
FreeU (Free Lunch in Diffusion U-Net) é um detalhista experimental que expande o intervalo guidance em quatro intervalos separados durante o render. Há quatro valores possíveis, cada um entre 0 e 2.
b1: fator de backbone do primeiro estágio
b2: fator de backbone do segundo estágio
s1: fator de pulo do primeiro estágio
s2: fator de pulo do segundo estágio
/render <av5> a drunk horse in Rome /freeu:1.1,1.2,0.9,0.2
Concepts visão geral
Concepts são modelos de IA especializados que geram coisas específicas que não podem ser bem compreendidas apenas com a solicitação. Vários concepts podem ser usados juntos: Normalmente, um modelo básico e 1-3 LoRas ou Inversões são o uso mais comum.
Você também pode treinar seus próprios funcionários iniciando a interface da Web de treinamento:
/makelora
Uma observação sobre loras personalizadas e privacidade:
- Loras privadas: Sempre use o comando /makelora de sua conversa particular com @piratediffusion_bot para criar uma lora que somente você possa ver. Você também pode usar esse comando no seu subdomínio privado, mas ele NÃO aparecerá na instância compartilhada do Stable2go ou na criação rápida no MyGraydient.
- Loras Públicas: Para treinar e compartilhar sua LoRa com todo o community, faça login em my.graydient.ai e clique no ícone LoRaMaker. Essas loras aparecerão para todos, inclusive para seu bot de telegrama.
Família de modelos
No momento, nosso software é compatível com duas famílias de Stable Diffusion: SD15 (mais antiga, treinada em 512×512) e Stable Diffusion XL, que é nativamente 1024×1024. Manter-se próximo a essas resoluções produzirá os melhores resultados (e evitará membros duplicados, etc.)
O mais importante a ser observado é que as famílias não são compatíveis entre si. Uma base SDXL não pode ser usada com uma Lora SD15 e vice-versa.
Sintaxe:
LISTA DE MODELOS
The term AI model can also mean chat models, so we call image models “concepts”. A concept can be a person, pose, effect, or art style. To bring those things into your creation, we call their “trigger word” which appear in angled brackets like this: <sdxl>
Our platform has over 8 terabytes of AI concepts preloaded. PirateDiffusion is never stuck in one style, we add new ones daily.
/concepts
O objetivo do comando /concepts é procurar rapidamente palavras de gatilho para modelos como uma lista no Telegram. No final dessa lista, você também encontrará um link para navegar visualmente em concepts em nosso site.
Usando concepts
Para criar uma imagem, combine uma palavra de acionamento do conceptcom o comando render (explicado abaixo) e descreva a foto.
To use one, use it’s trigger name anywhere in the prompt. For example, one of the most popular concepts of the moment is called Realistic Vision 5 SDXL, a realistic “base model” — the basis of the overall image style. The trigger name for Realistic Vision 5 SDXL is <realvis5-xl> so we would then prompt.
/render a dog <realvis4-xl>
Dica: Escolha um modelo básico (como realvis4-xl), uma ou três loras e algumas inversões negativas para criar uma imagem equilibrada. A adição de um número excessivo ou conflitante de concepts (como duas poses) pode causar artefatos. Experimente uma lição ou crie uma você mesmo
PESQUISAR MODELOS
Você pode pesquisar diretamente no Telegram.
/concept /search:emma
MODELOS RECENTES
Lembre-se rapidamente dos últimos que você experimentou:
/concept /recent
MODELOS FAVORITOS
Use o comando fave para rastrear e lembrar seus modelos favoritos em uma lista pessoal
/concept /fave:concept-name
MEU MODELO PADRÃO
O Stable Diffusion 1.5 é o modelo padrão, mas por que não substituí-lo pelo seu modelo preferido?
This will impact both your Telegram and Stable2go account. After you do this command, you don’t have to write that <concept-name> every time in your prompts. Of course, you can override it with a different model in a /render.
/concept /default:concept-name
Tipos de Concepts
Os modelos básicos também são chamados de "modelos completos", que determinam com mais intensidade o style da imagem. LoRas e Textual Inversions são modelos menores para controles finos. São arquivos pequenos com especificidade sobre um assunto, normalmente uma pessoa ou uma pose. Os modelos de pintura são usados somente pelas ferramentas Inpaint e Outpaint e não devem ser usados para renderização ou outros fins.
Especial concept Tags
O sistema concepts é organizado por tags, com uma ampla variedade de tópicos, de animais a poses.
Há algumas tags especiais chamadas Types, que informam como o modelo se comporta. Há também substitutos para Positives e Negative Prompts chamados Detailers e Negatives. Ao usar o tipo Negativo concept , lembre-se de definir também o peso como negativo.
INVERSÕES NEGATIVAS
O sistema de modelos tem modelos especiais chamados de inversões negativas, também chamados de embeddings negativos. Esses modelos foram treinados em images de aparência horrível intencionalmente, para orientar a IA sobre o que não fazer. Assim, ao chamar esses modelos de negativos, eles aumentam significativamente a qualidade. O peso desses modelos deve estar em [[colchetes negativos]] duplos, entre -0,01 e -2.
/render <sdxl> [[<fastnegative-xl:-2>]] Takoyaki on a plate
Modelos com nomes que soam rápidos, como "Hyper" e "Turbo", podem render images rapidamente com parâmetros baixos, explicados abaixo em Guidance / CFG.
Esses números, além dos nomes dos modelos, são "pesos"
Você pode control a quantidade de influência que um modelo tem em sua imagem ajustando seu peso. Precisamos de pesos porque os modelos são opinativos e, portanto, puxam a imagem para sua própria direção de treinamento. Quando vários modelos são adicionados, isso pode causar pixelização e distorção se eles não concordarem. Para resolver isso, podemos diminuir ou aumentar o peso de cada modelo para obter o que desejamos.
As regras de pesos
Os modelos completos não são ajustáveis. Também conhecidos como checkpoints ou modelos básicos, são arquivos grandes que determinam a arte geral style. Para alterar a influência da arte do modelo básico, basta trocá-lo por outro modelo básico. É por isso que temos tantos no sistema.
LoRas e Inversões textuais têm pesos flexíveis.
Mover o peso para o lado positivo torna esses modelos mais ousados. Em termos leigos, os LoRas são versões mais detalhadas das Inversões Textuais.
MELHORES PRÁTICAS
Sempre use um modelo básico e adicione loras e inversões.
Carregar vários modelos básicos não os blend , ele carregará apenas um, mas "tokenizará" os outros que você carregou, o que significa que você pode simplesmente digitar os nomes deles e a mesma coisa acontecerá sem deixar o site render mais lento (menos modelos na memória = mais rápido).
Para LoRas e Inversões, você pode usar ambos e muitos deles ao mesmo tempo, embora a maioria das pessoas se limite a 1-3, pois é mais fácil de equilibrar.
Para os usuários do SDXL, você encontrará muitas tags no sistema chamadas "-type". Essa é uma subfamília de modelos que funcionam melhor quando carregados juntos. No momento da elaboração deste guia, o tipo mais popular é o Pony (não literalmente pôneis), que tem melhor coesão de prontidão, especialmente para coisas sensuais. As Loras Pônei funcionam melhor com modelos de base Pônei, e assim por diante.
PESOS POSITIVOS DO MODELO
Os limites dos pesos são -2 (negativo) e 2 (máximo). Normalmente, um peso entre 0,4 e 0,7 funciona melhor. Números acima de 0,1 têm um efeito semelhante a um ((prompt positivo)). Há mais de dez dígitos de precisão decimal disponíveis, mas a maioria das pessoas se limita a um único dígito, e é isso que recomendamos.
PESOS NEGATIVOS DO MODELO (veja inversões negativas acima)
É possível influenciar negativamente a imagem para obter um efeito positivo líquido.
Por exemplo, alguém treinou uma coleção de mãos de IA de aparência horrível e, ao carregá-las como um negativo, criou mãos bonitas. A solução foi bastante engenhosa. Você encontrará muitos tipos de hacks de qualidade como esse em nosso sistema. Eles save nos dão tempo de digitar coisas como [[qualidade ruim]] várias vezes. Ao usar um modelo negativo, deslize o peso para o negativo, normalmente -1 ou -2. Isso tem um efeito semelhante a um [[negative prompt]]
Solução de problemas
Usar muitos modelos pode ser como tocar muitas músicas ao mesmo tempo: se todas tiverem o mesmo volume (peso), será difícil distinguir alguma coisa.
Se o site images parecer excessivamente bloqueado ou pixelizado, verifique se você tem um modelo básico e se o guidance está definido como 7 ou menos, e se os positivos e negativos não estão muito fortes. Tente ajustar os pesos para encontrar o melhor equilíbrio. Saiba mais sobre Guidance e parâmetros no guia abaixo.
Parâmetros
Resolução: Largura e altura
As fotos do modelo de IA são "treinadas" em um tamanho específico, portanto, criar images próximo a esses tamanhos produz os melhores resultados. Quando tentamos aumentar o tamanho muito cedo, isso pode resultar em falhas (gêmeos, membros extras).
Diretrizes
- Modelos estáveis do Diffusion XL: Comece com 1024×1024, e geralmente é seguro abaixo de 1400×1400.
- O Stable Diffusion 1.5 foi treinado em 512×512, portanto, os limites superiores são 768×768. Alguns modelos avançados, como o Photon, funcionam em 960×576. Mais dicas sobre o tamanho do SD15
- Você sempre pode fazer o upscale em uma segunda etapa próxima a 4K, consulte as informações do upscalerFacelift abaixo.
Sintaxe
Você pode alterar a forma de uma imagem facilmente com esses comandos abreviados: /portrait /tall /landscape /wide
/render /portrait a gorilla jogging in the park <sdxl>
Você também pode definir manualmente a resolução com /size. Por padrão, o rascunho images é criado como 512×512. Eles podem parecer um pouco confusos, portanto, usar o comando de tamanho lhe dará um resultado mais claro.
/render /size:768x768 a gorilla jogging in the park <sdxl>
Limitações: O Stable Diffusion 1.5 é treinado em 512×512, portanto, um tamanho muito alto resultará em cabeças duplas e outras mutações. O SDXL é treinado em 1024×1024, portanto, um tamanho como 1200×800 funcionará melhor com um modelo SDXL do que com um modelo SD 1.5, pois haverá menos probabilidade de repetição. Se você estiver obtendo assuntos duplicados usando /size , tente iniciar o prompt com 1 mulher/homem e descreva o plano de fundo com mais detalhes no final do prompt.
Para obter 2000×2000 e 4000×4000, use o upscaling
Seed
Um número arbitrário usado para inicializar o processo de geração de imagens. Não se trata de uma imagem específica (não é como uma identificação de foto no banco de dados), mas sim de um marcador geral. O objetivo de um seed é ajudar a repetir um prompt de imagem. O Seed era originalmente a melhor maneira de manter caracteres persistentes, mas foi substituído pelo sistema Concepts .
Para repetir uma imagem: os endereços Seed, Guidance, Sampler, Concepts e o prompt devem ser os mesmos. Qualquer desvio entre eles alterará a imagem.
SINTAXE
/render /seed:123456 cats in space

Steps
O número de iterações que a IA leva para refine a imagem, com mais steps geralmente levando a uma qualidade mais alta. Obviamente, a contagem de etapas mais alta resulta em um processamento mais lento.
/render /steps:25 (((cool))) cats in space, heavens
Definir steps como 25 é a média. Se você não especificar steps, nós o definimos como 50 por padrão, o que é alto. O intervalo de steps é de 1 a 100 quando definido manualmente e de até 200 steps quando usado com uma predefinição. As predefinições são:
- waymore - 200 steps, dois images - melhor em termos de qualidade
- mais -100 steps, três images
- menos - 25 steps, seis images
- wayless - 15 steps, nove images! - melhor para rascunhos
/render /steps:waymore (((cool))) cats in space, heavens
Embora possa ser tentador definir /steps:waymore em cada render, isso apenas torna o workflow mais lento, pois o tempo de computação é maior. Aumente o steps quando tiver criado seu melhor prompt. Como alternativa, aprenda a usar o LCM sampler para obter a mais alta qualidade images com o menor número de steps. Um número excessivo de steps também pode danificar uma imagem.
EXCEÇÕES
A recomendação antiga era trabalhar acima de 35 steps ou mais para obter qualidade, mas isso nem sempre acontece, pois os modelos mais recentes de alta eficiência podem criar uma imagem impressionante com apenas 4 steps!

Guidance (CFG)
A escala Classifier-Free Guidance é um parâmetro que controla a proximidade com que a IA segue o prompt; valores mais altos significam mais aderência ao prompt.
Quando esse valor é definido como mais alto, a imagem pode parecer mais nítida, mas a IA terá menos "criatividade" para preencher os espaços, portanto, podem ocorrer pixelização e falhas.
Um padrão seguro é 7 para os modelos básicos mais comuns. No entanto, há modelos especiais de alta eficiência que usam uma escala guidance diferente, explicada a seguir.
SINTAXE
/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate
A definição de quão alto ou baixo o guidance deve ser depende do sampler que você está usando. Os samplers são explicados abaixo. A quantidade de steps permitida para "resolver" uma imagem também pode desempenhar um papel importante.

Exceções à regra
Os modelos típicos seguem esse padrão guidance e step, mas os modelos mais novos de alta eficiência exigem muito menos guidance para funcionar da mesma forma, entre 1,5 e 2,5. Isso é explicado abaixo:
Modelos de alta eficiência
Baixo Steps, Baixo Guidance
A maioria dos concepts exige um guidance de 7 e 35+ steps para gerar uma ótima imagem. Isso está mudando com a chegada de modelos de maior eficiência.
Esses modelos podem criar images em 1/4 do tempo, exigindo apenas 4-12 steps com menor guidance. Você pode encontrá-los marcados como Turbo, Hyper, LCM e Lightning no sistema concepts e são compatíveis com os modelos clássicos. Você pode usá-los juntamente com Loras e Inversions da mesma família de modelos. A família SDXL tem a maior seleção (use o menu suspenso, na extrema direita). O Juggernaut 9 Lightining é uma escolha popular.
Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]]. Follow it up with an upscale, and the effects are stunning!
Consulte as notas desses tipos de modelos especiais para obter mais detalhes sobre como usá-los, como o Aetherverse-XL (foto abaixo), com um guidance de 2,5 e 8 steps , conforme a foto abaixo.
VASS (somente SDXL)
Vass é um HDR mode para SDXL, que também pode melhorar a composição e reduzir a saturação de cores. Alguns preferem esse recurso, outros não. Se a imagem parecer muito colorida, tente usá-la sem o Refiner (NoFix)

O nome vem de Timothy Alexis Vass, um pesquisador independente que vem explorando o espaço latente da SDXL e fez fez algumas observações interessantes. Seu objetivo é a correção de cores e o aprimoramento do conteúdo do site images. Adaptamos o código publicado por ele para ser executado no site PirateDiffusion.
/render a cool cat <sdxl> /vass
Por que e quando usá-lo: Experimente-o na SDXL images que esteja muito amarela, descentralizada ou cuja gama de cores pareça limitada. Você verá uma melhor vibração e fundos mais limpos.
Limitações: Isso só funciona em SDXL.
ANALISADORES E PESOS
A parte do software que recebe seu prompt é chamada de Parser. O analisador tem o maior impacto sobre a coesão do prompt, ou seja, o quanto a IA entende o que você está tentando expressar e o que deve ser mais priorizado.
PirateDiffusion tem três modos de analisador: padrão, LPW e Weights (analisador "novo"). Todos eles têm seus pontos fortes e desvantagens, portanto, a escolha depende do seu prompt style e de como você se sente em relação ao texto sintático.
MODE 1 - ANALISADOR PADRÃO (MAIS FÁCIL)
O analisador padrão oferece o máximo de compatibilidade e recursos, mas só pode passar 77 tokens (ideias lógicas ou partes de palavras) antes que o Stable Diffusion pare de prestar atenção ao prompt longo. Para transmitir o que é importante, é possível adicionar reforço (positivo) e [negativo], conforme explicado na seção acima (consulte positivos). Isso funciona com o SD 1.5 e o SDXL.
Long Prompt Weights (experimental)
Você pode escrever prompts positivos e negativos mais longos quando ele estiver ativado. Assista a um vídeo de demonstração.
Exemplo:
((high quality, masterpiece, masterwork)) A wizard browsing through a magical marketplace with a mystical air around him. He has pointy ears, spectacles perched precariously on his nose, and a wand twirling in hsi hand. His robes are adorned with intricate patterns and patterns of magic dust. There is a bubbling magical cauldron, and mythical creatures peeking around from behind him.
Esse é um utilitário de reequilíbrio do prompt que permite que a compreensão do prompt vá muito além de 77 tokens, melhorando a compreensão geral do prompt. É claro que definiríamos isso como a norma se não fossem algumas compensações infelizes:
Limitações
- Requer um guidance mais baixo para obter melhores resultados, em torno de 7 ou menos
- LPW Não deve ser combinado com estímulos positivos ou negativos muito fortes
- (((((This will break)))))
- [[[[so will this]]]]
- Não funciona bem com Loras ou Inversion concepts
- O LPW não é 100% compatível com a ferramentaRemix
- Não funciona com LCM sampler
PROMPT LENGTH
/render /lpw my spoon is too big, ((((big spoon)))) [small spoon], super big, massively big, you would not believe the size, and I've seen many spoons and let me tell you, this spoon in my hand, right here, is yuuuuge, the biggest spoon you'll ever see, and if anyone's said they've seen a bigger spoon, they're cheating, Big spoon, gigantic ladle, extra large serving bowl, oversized utensil, huge portion size, bulky kitchenware, impressive cooking tools, rustic table setting, hearty meals, heavyweight handle, strong grip, stylish design, handcrafted wooden piece, <coma2>
PESO DA PALAVRA
ANALISADOR "NOVO", TAMBÉM CONHECIDO COMO PESOS DO PROMPT
Outra estratégia para melhorar a coesão do prompt é atribuir um "peso" a cada palavra. O intervalo de peso é de 0 a 2 usando decimais, semelhante ao LoRas. A sintaxe é um pouco complicada, mas há suporte para pesos positivos e negativos para uma precisão incrível
/render /parser:new (blue cat:0.1) (green bird:0.2) [(blue cat:2), (red dog:0.1)]
Preste atenção especial às negativas, que usam uma combinação de pares [( )] para expressar negativas. No exemplo acima, blue cat e red dog são as negativas. Esse recurso não pode ser misturado com /lpw (acima)
CLIP SKIP
Esse recurso é controverso, pois é muito subjetivo e os efeitos variam muito de modelo para modelo.
Os modelos de IA são compostos de camadas e, nas primeiras camadas, diz-se que contêm muitas informações gerais (alguns podem dizer que são lixo), o que resulta em composições entediantes ou repetitivas.
A ideia por trás do Clip Skip é ignorar o ruído gerado nessas camadas e ir direto ao ponto principal.
/render /images:1 /guidance:8 /seed:123 /size:1024x1024 /sampler:dpm2m /karras <sdxl> huge diet coke /clipskip:2
Em teoria, isso aumenta a coesão e a intenção imediata. Entretanto, na prática, o recorte de muitas camadas pode resultar em uma imagem ruim. Embora o júri ainda não tenha se pronunciado sobre isso, uma configuração "segura" popular é clipskip 2.
Refinador (somente SDXL)
O refinador é uma técnica de remoção de ruído e suavização, recomendada para pinturas e ilustrações. Ela cria um images mais suave com cores mais limpas. Entretanto, às vezes é o oposto do que você deseja. Para images realistas, desativar o refinador resultará em mais cores e detalhes, conforme mostrado abaixo. Em seguida, você pode aumentar a escala da imagem para reduzir o ruído e aumentar a resolução.
SINTAXE
/render a cool cat <sdxl> /nofix
Por que e quando usá-lo: Quando a imagem parece muito desbotada ou as cores da pele parecem opacas. Adicione o pós-processamento usando um dos comandos de resposta (abaixo), como /highdef ou /facelift , para dar mais acabamento à imagem.


SAMPLER COMANDOS E SINTAXE
Para ver uma lista dos samplers disponíveis, basta digitar /samplers
Os samplers são um recurso de ajuste popular entre os entusiastas da IA, e aqui está o que eles fazem. Também são chamados de agendadores de ruído. A quantidade de steps e o sampler que você escolher podem causar um grande impacto em uma imagem. Mesmo com um steps baixo, você pode obter uma imagem excelente com um sampler como o DPM 2++ com o opcional mode "Karras". Consulte a página de samplers para ver as comparações.
Para usá-lo, adicione o seguinte ao seu prompt
/render /sampler:dpm2m /karras a beautiful woman <sdxl>
Karras é um mode opcional que funciona com 4 samplers. Em nossos testes, ele pode resultar em resultados mais agradáveis.
LCM em Stable Diffusion significa Latent Consistency Models (modelos de consistência latente). Use-o para obter images de volta mais rapidamente, empilhando-o com steps e guidance inferiores. A desvantagem é a velocidade em detrimento da qualidade, embora possa produzir images impressionante muito rapidamente em grandes lotes.
/render /sampler:lcm /guidance:1.5 /steps:6 /images:9 /size:1024x1024 <realvis2-xl> /seed:469498 /nofix Oil painting, oil on board, painted picture Retro fantasy art by Brom by Gerald Brom ((high quality, masterpiece,masterwork)) [[low resolution,m worst quality, blurry, mediocre, bad art, deformed, disfigured, elongated, disproportionate, anatomically incorrect, unrealistic proportions, melted, abstract, surrealism, sloppy, crooked, skull, skulls]] Closeup Portrait A wizard stands in an alien landscape desert wearing wizards robes and a magic hat
Dicas: Ao usar o SDXL, adicione /nofix para desativar o refinador, o que pode ajudar a aumentar a qualidade, especialmente ao fazer /more
Ele funciona com os modelos SD 1.5 e SDXL. Experimente com guidance entre 2-4 e steps entre 8-12. Faça a experiência e compartilhe suas descobertas no grupo de discussão de engenharia de prompt VIP, encontrado na seção de associação no Patreon.
Isso varia de acordo com o modelo, mas até mesmo /guidance:1.5 /steps:6 /images:9 está retornando bons resultados de SDXL em menos de 10 segundos!
/render /size:1024x1024 <airtist-xl> [[<fastnegative-xl:-2>]] /sampler:lcm /guidance:1.5 /steps:6 /nofix /vae:madebyollin__sdxl-vae-fp16-fix ((high quality, masterpiece,masterwork)) [[low resolution, worst quality, blurry, mediocre, bad art, deformed, disfigured, elongated, disproportionate, anatomically incorrect, unrealistic proportions, mutant, mutated, melted, abstract, surrealism, sloppy, crooked]] Takoyaki on a plate
No exemplo acima, o criador está usando o LCM sampler especial que permite um guidance muito baixo e um steps baixo, mas ainda assim cria um images de alta qualidade. Compare esse prompt com algo como: /sampler:dpm2m /karras /guidance:7 /steps:35
Passando adiante, o comando VAE controla as cores e /nofix desativa o refinador SDXL. Esses comandos funcionam bem com LCM.
VAE OVERRIDE
VAE significa Variational AutoEncoder, uma parte do software que tem muita influência sobre a cor da imagem. Para o SDXL, há apenas um fantástico VAE no momento.
VAE é um tipo especial de modelo que pode ser usado para alterar o contraste, a qualidade e a saturação da cor. Se uma imagem parecer muito embaçada e o guidance estiver definido acima de 10, o VAE pode ser o culpado. VAE significa "variational autoencoder" e é uma técnica que reclassifica images, semelhante à forma como um arquivo zip pode compactar e restaurar uma imagem. O VAE "reidrata" a imagem com base nos dados aos quais ela foi exposta, em vez de valores discretos. Se todas as suas renderizações images parecerem dessaturadas, borradas ou com manchas roxas, alterar o VAE é a melhor solução. (Além disso, notifique-nos para que possamos definir o valor correto por padrão). O VAE de 16 bits é mais rápido.

/render #sdxlreal a hamster singing in the subway /vae:GraydientPlatformAPI__bright-vae-xl
Predefinição disponível VAE opções:
- /vae:GraydientPlatformAPI__bright-vae-xl
- /vae:GraydientPlatformAPI__sd-vae-ft-ema
- /vae:GraydientPlatformAPI__vae-klf8anime2
- /vae:GraydientPlatformAPI__vae-blessed2
- /vae:GraydientPlatformAPI__vae-anything45
- /vae:GraydientPlatformAPI__vae-orange
- /vae:GraydientPlatformAPI__vae-pastel
Terceiros VAE:
Faça upload ou encontre um no site da Huggingface com essa configuração de diretório de pasta:
https://huggingface.co/madebyollin/sdxl-vae-fp16-fix
Em seguida, substitua as barras e remova a parte da frente do URL, da seguinte forma:
/render whatever /vae:madebyollin__sdxl-vae-fp16-fix
A pasta vae deve ter as seguintes características:
- Um único VAE por pasta, em uma pasta de nível superior de um perfil Huggingface, como mostrado acima
- A pasta deve conter um config.json
- O arquivo deve estar no formato .bin
- O arquivo bin deve ter o nome "diffusion_pytorch_model.bin" Onde encontrar mais: Huggingface e Civitai podem ter outros, mas eles devem ser convertidos para o formato acima
- kofi2 - muito colorido e saturado
- blessed2 - menos saturado que kofi2
- anything45 - menos saturado que o blessed2
- laranja - saturação média, verdes intensos
- pastel - cores vivas, como os antigos mestres holandeses
- ft-mse-840000-ema-pruned - ótimo para realismo
Projetos
Você pode render images diretamente nas pastas do projeto. Veja como configurar isso na Web:
- Primeiro, render uma imagem para dar início ao seu projeto em seu @piratediffusion_bot
- Inicie My Graydient > My Images
- Selecione o images
- Clique em Organizar
- Clique no menu suspenso Projetos
- Dê um nome ao seu projeto
- Mova seu primeiro images
Continue na parte inferior deste guia para ver os comandos relacionados a /project

ControlNet via PirateDiffusion
As ControlNets são estênceis de imagem a imagem para orientar a imagem final. Acredite ou não, você pode usar o Controlnet nativamente no Telegram, sem o navegador, embora suportemos ambos.
Você pode fornecer uma imagem inicial como estêncil, escolher um mode e alterar a aparência da imagem de origem com um prompt positivo e negativo. Você pode control o efeito com o controle deslizante de peso. A entrada images entre 768×768 ou 1400×1400 funciona melhor.

No momento, os modos suportados são contornos, profundidade, bordas, mãos, pose, referência, segmento, esqueleto e facepush, cada um com parâmetros filhos. Mais exemplos
Visualização de suas predefinições salvas no site controlnet
/control
Crie uma predefinição para ControlNet
Primeiro, carregue uma imagem. Em seguida, "responda" a essa imagem com este comando, dando a ela um nome como "myfavoriteguy2"
/control /new:myfavoriteguy2
As redes de controle são sensíveis à resolução, portanto, ele responderá com a resolução da imagem como parte do nome. Portanto, se eu carregar uma foto do Will Smith, o bot responderá will-smith-1000×1000 ou qualquer que seja o tamanho da minha imagem. Isso é útil para ajudá-lo a se lembrar do tamanho a ser direcionado posteriormente.
Recuperar uma predefinição do site ControlNet
Se você esqueceu o que sua predefinição faz, use o comando show para vê-las: /control ou para ver uma predefinição específica:
/control /show:myfavoriteguy2
Usando os modos ControlNet
O (novo) parâmetro abreviado para control guidance é /cg:0.1-2 - controla o quanto o render deve se ater a um determinado controlnet mode . O ponto ideal é 0,1-0,5. Você também pode escrevê-lo da maneira antiga como /controlguidance:1
Troca de rostos
O FaceSwapping também está disponível como um comando de resposta. Você também pode usar esse prático facewap (roop, insightface) para trocar os rostos de uma foto carregada. Primeiro, crie o endereço control para a imagem e, em seguida, adicione uma segunda foto para trocar o rosto
Como um comando de resposta (clique com o botão direito do mouse em uma imagem finalizada, de qualquer modelo)
/faceswap myfavoriteguy2
facelift também oferece suporte a um parâmetro /strength , mas a forma como ele funciona não é a que você espera:
/faceswap /strength:0.5 myfavoriteguy2
Se você colocar um /strength menor que 1, ele *blend* a "imagem anterior" com a "imagem posterior" - literalmente blend elas, como no photoshop com 50% de opacidade (se a força for 0,5). A razão para isso é que o algoritmo subjacente não tem uma configuração de "força" como seria de se esperar, portanto, essa era nossa única opção.
Empurrando os rostos
Faceswapping (explicado acima), mas como um comando render-time é chamado de "face pushing"
Você também pode usar nossa tecnologia FaceSwap de certa forma (semelhante a uma LoRa), mas é apenas uma maneira de economizar tempo para criar uma troca de rosto. Ela não tem pesos nem muita flexibilidade, mas encontrará todos os rostos realistas em um novo render e trocará o images por um rosto. Use seus mesmos nomes de predefinição do ControlNet para usá-lo.
/render a man eating a sandwich /facepush:myfavoriteguy2
Facepush Limitações
Facepush funciona apenas com modelos Stable Diffusion 1.5 e o ponto de controle deve ser realista. Ele não funciona com modelos SDXL e pode não funcionar com o comando /more ou com algumas resoluções altas. Esse recurso é experimental. Se estiver tendo problemas com /facepush , tente renderizar o prompt e, em seguida, acesse /faceswap na imagem. Ele lhe dirá se a imagem não é realista o suficiente. Às vezes, isso pode ser corrigido com a aplicação de um /facelift para aumentar a nitidez do alvo. /more e /remix podem não funcionar como esperado (ainda)
Ferramentas de alto nível (várias)
Aumente os pixels e os detalhes
Aumente os detalhes de uma imagem em 4x, bem como remova linhas e manchas de fotografias, semelhante à "beleza" mode nas câmeras de smartphones. Modos para fotos realistas e obras de arte. Mais informações
ALTA DEF
O comando HighDef (também conhecido como High Res Fix) é um duplicador de pixels rápido. Basta responder à imagem para aumentá-la.
/highdef
O comando highdef não tem parâmetros, porque o comando /more pode fazer o que o HighDef faz e muito mais. Isso está aqui simplesmente para sua conveniência. Para os profissionais que desejam saber mais sobre o control, role novamente para cima e confira o vídeo tutorial /more .
Depois de usar o comando /highdef ou /more , você pode fazer o upscale mais uma vez, conforme explicado abaixo.
UPSCALERS
Facelift destina-se a fotografias de retratos realistas.
Você pode usar /strength entre 0,1 e 1 para control o efeito. O padrão é 1 se não for especificado.
/facelift
O comando /facelift também lhe dá acesso à nossa biblioteca de upscalers. Adicione esses parâmetros para control o efeito:
Facelift é um upscaler de fase 2. Você deve usar HighDef primeiro antes de usar Facelift. Esse é o comando geral de upscaling, que faz duas coisas: aumenta os detalhes do rosto e quadruplica os pixels. Ele funciona de forma semelhante ao beauty mode em seu smartphone, o que significa que, às vezes, ele pode danificar os rostos, especialmente as ilustrações. Felizmente, ele tem outros modos de operação:
/facelift /photo
Isso desativa o retoque do rosto e é bom para paisagens ou retratos de aparência natural
/facelift /anime
Apesar do nome, ele não é apenas para o site anime - use-o para melhorar qualquer ilustração
/facelift /size:2000x2000
Limitações: Facelift tentará 4x sua imagem, até 4000×4000. Normalmente, o Telegram não permite esse tamanho e, se a sua imagem já for HD, tentar quadruplicar provavelmente esgotará a memória. Se a imagem for muito grande e não retornar, tente pegá-la digitando /history para pegá-la na interface do usuário da Web, pois o Telegram tem limites de tamanho de arquivo. Como alternativa, use o parâmetro de tamanho, conforme mostrado acima, para usar menos memória RAM ao fazer o upscaling.
REFINE
Refine é para aqueles momentos em que você quer editar seu texto fora do Telegram e em seu navegador da web. Uma questão de qualidade de vida.
Sua assinatura vem com o Telegram e o Stable2go WebUI. O comando refine permite que você alterne entre o Telegram e a interface da Web. Isso é útil para fazer alterações rápidas no texto em seu navegador da Web, em vez de copiar/colar.
/refine
O WebUI será iniciado em Brew mode por padrão. Clique em "Advanced" para mudar para Render.
Remix ferramenta
Transformações de imagem para imagem
A ferramenta remix é mágica. Uma imagem carregada ou renderizada pode ser transformada na arte style de um concept com a ferramenta Remix . Você também pode usar fotos de entrada como imagens de referência para fazer alterações drásticas em assuntos diferentes.

SINTAXE
Remix é o comando de transferência image-to-Image style , também conhecido como comando de re-prompting.
Remix requer uma imagem como entrada e destruirá cada pixel da imagem para criar uma imagem completamente nova. É semelhante ao comando /more , mas você pode passar a ele outro nome de modelo e um prompt para alterar a arte style da imagem.
Remix é o segundo comando de "resposta" mais popular. Literalmente, responda a uma foto como se fosse falar com ela e, em seguida, digite o comando. Esse exemplo muda a arte style de onde você começou para o modelo básico chamado Nível 4.
/remix a portrait <level4>
Você pode usar suas fotos carregadas com o /remix e ele as alterará completamente. Para preservar os pixels (por exemplo, não alterar o rosto), considere desenhar uma máscara com Inpaint em vez disso.
Usos: Style Transferência e criativo "upscale"
Você também pode usar a ferramenta remix para reinterpretar a baixa resolução images em algo novo, como transformar fotos de videogame de baixa resolução em uma images realista moderna ou transformar-se em uma caricatura ou ilustração anime . Este vídeo mostra como fazer isso:
Mais ferramenta (comando de resposta)
A ferramenta More cria variações da mesma imagem
Para ver o mesmo tema em variações ligeiramente diferentes, use a ferramenta mais.

O que está acontecendo nos bastidores: O valor seed está aumentando e o guidance está sendo randomizado, mantendo o prompt original. Limitações: Ele pode exagerar no guidance ao usar modelos eficientes.
Para usar mais, responda literalmente a uma imagem clicando com o botão direito do mouse, como se estivesse falando com uma pessoa. Os comandos de resposta são usados para manipular o site images e inspecionar informações, como IMG2IMG ou procurar o prompt original.
MAIS SINTAXE
more é o comando Reply mais comum. Ele lhe dá um retorno semelhante ao images ao responder a uma imagem já gerada por um prompt. O comando /more não funciona em uma imagem carregada.
/more
O comando more é mais poderoso do que parece. Ele também aceita Strength (Força), Guidance e Size (Tamanho), de modo que você pode usá-lo também como um upscaler de segunda fase, o que é particularmente útil para modelos Stable Diffusion 1.5. Confira este tutorial em vídeo para dominá-lo.
Ferramenta de pintura
AKA Preenchimento Generativo
Inpainting é uma ferramenta de mascaramento que permite desenhar uma máscara ao redor de uma área e inserir algo novo nela, ou remover o objeto como uma borracha mágica. A ferramenta inpaint tem sua própria caixa de prompt positiva e negativa, que também aceita códigos de acionamento para concepts.
Observação: Nosso software foi atualizado desde este vídeo, mas os mesmos princípios ainda se aplicam.
PREENCHIMENTO GENERATIVO, TAMBÉM CONHECIDO COMO INPAINTING
Inpaint é útil para alterar uma área pontual em uma foto. Ao contrário do After Detailer, a ferramenta inpaint permite selecionar e mascarar a área que você deseja alterar.
Essa ferramenta tem uma GUI, pois está integrada ao Stable2go. O Inpaint abre um navegador da Web no qual você literalmente pinta a imagem, criando uma área mascarada que pode ser solicitada. É possível pintar em uma foto carregada que não seja de IA (mudar as mãos, o céu, o corte de cabelo, as roupas etc.) e também de IA images.
/inpaint vaga-lumes zumbindo à noite
Na GUI, há estilos de arte especiais e específicos (modelosinpaint ) disponíveis no menu suspenso dessa ferramenta, portanto, não se esqueça de selecionar um deles. . Use strength e guidance para control o efeito, sendo que Strength se refere apenas ao seu prompt inpaint .
/inpaint /size:512x768 /strength:1 /guidance:7 fireflies at (night)
Dica: o tamanho será herdado da imagem original, e recomenda-se 512×768. Recomenda-se especificar um tamanho, caso contrário, o padrão será 512×512, o que poderá esmagar sua imagem. Se uma pessoa estiver distante na imagem, seu rosto poderá mudar, a menos que a imagem seja de maior fidelidade.
Você também pode inverter inpaint, como, por exemplo, usar primeiro o comando /bg para remover automaticamente o plano de fundo de uma imagem e, em seguida, solicitar a alteração do plano de fundo. Para isso, copie a ID da máscara dos resultados do /bg . Em seguida, use a propriedade /maskinvert
/inpaint /mask :IAKdybW /maskinvert uma visão majestosa do céu noturno com planetas e cometas passando por ele
OUTPAINT, TAMBÉM CONHECIDO COMO TELA ZOOM E PANNING
VERSÃO MAIS RECENTE (FLUX)
Expanda qualquer imagem usando as mesmas regras do inpaint, mas sem uma GUI, portanto, devemos especificar uma palavra de acionamento para o tipo de arte que o style deve usar. Você pode especificar a direção em que ela vai com um valor de slot
/workflow /run:zoomout-flux fireflies at night
DIRECIONAL CONTROL
Você pode adicionar preenchimento usando os valores dos slots, no sentido anti-horário. Portanto, slot1 = TOP
/workflow /run:zoomout-flux fireflies at night /slot1:200 /slot2:50 /slot3:100 /slot4:300
VERSÕES ANTERIORES (SDXL)
Expanda qualquer imagem usando as mesmas regras do inpaint, mas sem uma GUI, de modo que devemos especificar uma palavra de acionamento para o tipo de arte a ser usada style . Exatamente os mesmos modelos inpaint são usados para outpainting. Saiba os nomes navegando na página de modelos ou usando
Você pode verificar quais modelos estão disponíveis com /concept /inpainting
/outpaint fireflies at night <sdxl-inpainting>
O Outpaint tem parâmetros adicionais. Use top, right, bottom e left para control a direção de onde a tela deve se expandir. Se você deixar de fora a lateral, ela se expandirá em todas as quatro direções igualmente. Você também pode adicionar o fundo blur bokeh (1-100), o fator zoom (1-12) e a contração da área original (0-256). Adicione força para controlar o efeito.
/outpaint /side:top /blur:10 /zoom:6 /contract:50 /strength:1 the moon is exploding, fireworks <sdxl-inpainting>
Parâmetros opcionais
/side:bottom/top/left/right - você pode especificar uma direção para expandir a imagem ou ir para todas as quatro de uma vez se não adicionar esse comando.
/blur:1-100 - desfoca a borda entre a área original e a recém-adicionada.
/zoom:1-12 - afeta a escala da imagem inteira; por padrão, está definida como 4.
/contract:0-256 - torna a área original menor em comparação com a área pintada. Por padrão, é definido como 64.
DICA: para obter melhores resultados, altere seus prompts para cada uso do outpaint e inclua apenas os itens que deseja ver na área recém-expandida. A cópia de prompts originais pode nem sempre funcionar como pretendido.
Remover a ferramenta BG
Zapping de fundo extremamente rápido
A ferramenta de remoção de plano de fundo é uma solução fácil, em uma única etapa, para eliminar tudo o que está atrás do tema. Images em 800×800 ou próximo disso funciona melhor. Você também pode usar a ferramenta de pintura (acima) para mascarar e inserir um novo plano de fundo no lugar.

COMANDOS DE REMOÇÃO DE PLANO DE FUNDO
Para remover um plano de fundo realista, basta responder a ele com /bg
/bg
Para ilustrações de qualquer tipo, adicione este parâmetro anime e a remoção se tornará mais nítida
/bg /anime
Você também pode adicionar o parâmetro PNG para download uma imagem não compactada. Por padrão, ele retorna um JPG de alta resolução.
/bg /format:png
Você também pode usar um valor de cor hexadecimal para especificar a cor do plano de fundo
/bg /anime /format:png /color:FF4433
Você também pode download a máscara separadamente
/bg /máscaras
Dica: O que posso fazer com a máscara? Para destacar apenas o plano de fundo! Mas isso não pode ser feito em uma única etapa. Primeiro, responda à máscara com /showprompt para obter o código da imagem para pintura, ou escolha-o nas máscaras recentes de pintura. Adicione /maskinvert ao plano de fundo em vez de ao primeiro plano ao criar uma render.
SUBSTITUIÇÃO DE FUNDO
Você também pode usar os comandos doControlNet style para trocar o plano de fundo de uma predefinição:
- Carregue um plano de fundo ou render um
- Responda à foto de fundo com /control /new :Quarto (ou qualquer cômodo/área)
- Faça upload ou acesse render da imagem de destino, a segunda imagem que receberá o plano de fundo armazenado
- Responda ao alvo com /bg /replace:Bedroom /blur:10
O parâmetro blur varia de 0 a 255, o que controla o enevoamento entre o tema e o plano de fundo. A substituição do plano de fundo funciona melhor quando todo o tema está à vista, o que significa que partes do corpo ou do objeto não estão obstruídas por outro objeto. Isso evitará que a imagem flutue ou crie um envoltório de fundo irrealista.
GIRAR UM OBJETO
Você pode girar qualquer imagem, como se fosse um objeto 3D. Funciona muito melhor depois de remover primeiro o plano de fundo com /bg
/spin
O Spin funciona melhor depois que o plano de fundo é removido. O comando spin suporta /guidance. Nosso sistema escolhe aleatoriamente um guidance 2 - 10. Para obter mais detalhes, adicione também /steps:100
DESCREVER UMA FOTO
Atualizado! Agora há dois modos de descrição: CLIP e FLORENCE2
Gere um prompt a partir de qualquer imagem com visão computacional com o Describe! É um comando de "resposta", portanto, clique com o botão direito do mouse na imagem como se fosse falar com ela e escreva
/describe /florence
O parâmetro adicional Florence fornece um prompt muito mais detalhado. Ele usa o novo modelo de visão computacional Florence2. O /describe por si só usa o modelo CLIP
Exemplo


Iniciar widgets em PirateDiffusion
Você pode criar botões predefinidos para facilitar a criação de botões, sem precisar aprender a programar. Isso é possível graças ao nosso sistema de Widgets. Basta preencher uma planilha com seus modelos de prompt e conectá-la ao seu bot. Por exemplo, fornecemos um modelo para um personagem que faz widget:

Os widgets criam o Telegram e o WebUI ao mesmo tempo, para que você possa aproveitar os dois! Assista a um vídeo sobre Widgets e download o modelo para começar a criar. Não é necessário codificar!

Gerenciamento de arquivos e filas
CANCELAR
Use /cancel para abortar o que está sendo renderizado
/cancel
DOWNLOAD
O images que você vê no Telegram está usando o compressor de imagem integrado do Telegram. Ele limita o tamanho do arquivo.
Para contornar o Telegram, responda à sua imagem com /download para obter uma imagem RAW não compactada
/download
Se o download solicitar um password, consulte a seção Compartilhamento de galeria privada e senhas nesta Folha de dicas.
DELETE
Há duas maneiras de excluir o images: localmente de seu dispositivo ou para sempre de seu Cloud Drive.
Para excluir o images do seu dispositivo local, mas mantê-lo no Cloud Drive, use o recurso de exclusão integrado do Telegram. Pressione e segure uma imagem (ou clique com o botão direito do mouse no PC) e escolha excluir.
Responda a uma imagem com /delete para apagá-la de sua unidade de nuvem.
/delete
Você também pode digitar /webui e abrir nosso gerenciador de arquivos e usar o comando organize para excluir em lote o endereço images de uma só vez.
HISTÓRIA
Veja uma lista de suas mensagens criadas recentemente images, em um determinado canal do Telegram. Quando usado em grupos públicos, ele mostrará apenas images que você já criou nesse canal público, portanto /history também é sensível à sua privacidade.
/history
SHOWPROMPT & COMPARE
Para ver o prompt de uma imagem, clique com o botão direito do mouse sobre ela e digite /showprompt
/showprompt
Esse prático comando permite que você inspecione como uma imagem foi criada. Ele mostrará a última ação executada na imagem. Para ver o histórico completo, escreva-o da seguinte forma: /showprompt /history
Há uma ferramenta de comparação de imagens incorporada na saída do site showprompt . Clique nesse link e a ferramenta será aberta no navegador.
DESCREVER (CLIPE)
O comando /showprompt fornecerá a você o prompt exato de uma imagem de IA, mas e quanto a images que não seja de IA?
Nosso comando /describe usará técnicas de visão computacional para escrever um prompt sobre qualquer foto que você tenha carregado.
/describe
A linguagem que o site /describe usa às vezes pode ser curiosa. Por exemplo, "arafed" significa uma pessoa divertida ou animada.
PNG
Por padrão, o PirateDiffusion cria o images em JPG quase sem perdas. Você também pode criar images como PNGs de alta resolução em vez de JPG. Aviso: Isso usará de 5 a 10 vezes mais espaço de armazenamento. No entanto, há um problema. O Telegram não exibe arquivos PNG nativamente, portanto, depois que o PNG for criado, use o comando /download (acima) para visualizá-lo.
/render a cool cat #everythingbad /format:png
VETOR
IMAGEM PARA SVG / VETOR! Responda a uma imagem gerada ou carregada para trace transformá-la em vetores, especificamente SVG. Vetores images que podem ser ampliados infinitamente, pois não são renderizados com pixels rasterizados como os images comuns; assim, você tem bordas nítidas e claras. Excelente para impressão, produtos etc. Use o comando /bg se estiver criando um logotipo ou adesivo.
/trace
Todas as opções disponíveis estão listadas abaixo. Ainda não conhecemos os opcionais, portanto, ajude-nos a chegar a um bom padrão compartilhando suas descobertas no bate-papo VIP.
- speckle - número inteiro - padrão 4 - intervalo 1 ... 128 - Descarta patches menores que X px de tamanho
- color - default - torna a imagem colorida
- bw - torna a imagem em preto e branco
- mode - polygon, spline, or none - default spline - Curver fitting mode
- precision - número inteiro - padrão 6 - intervalo 1 ... 8 - Número de bits significativos a serem usados em um canal RGB - ou seja, mais fidelidade de cores ao custo de mais "manchas"
- gradient - número inteiro - padrão 16 - intervalo 1 ..128 - Diferença de cor entre as camadas gradient
- corner - número inteiro - padrão 60 - intervalo 1 ... 180 - Ângulo momentâneo mínimo (grau) a ser considerado um corner
- length - número de ponto flutuante - padrão 4 - intervalo 3,5 ... 10 - Executa subdivisão iterativa suave até que todos os segmentos sejam mais curtos do que isso length
Exemplo trace com parâmetros de ajuste fino opcionais:
/trace /color /gradient:32 /corner:1
GERENCIADOR DE ARQUIVOS DA INTERFACE DO USUÁRIO DA WEB
Prático para gerenciar seus arquivos em um navegador e ver rapidamente uma lista visual de modelos.
/webui
Consulte a seção de contas na parte superior desta página para obter informações como os comandos do password .
RENDER PROGRESSO MONITOR
Inevitavelmente, o Telegram tem problemas de conexão de tempos em tempos. Se você quiser saber se nossos servidores estão fazendo o images , mas não estão chegando ao Telegram, use este comando. Você pode render e pegar seu images no Cloud Drive.
/monitor
Se /monitor não funcionar, tente /start. Isso dará um empurrãozinho no bot.
PING
"Estamos fora do ar, o Telegram está fora do ar ou a fila se esqueceu de mim?" / Oping tenta responder a todas essas perguntas em um piscar de olhos
/ping
Se /ping não funcionar, tente /start. Isso dará um empurrãozinho no bot.
SETTINGS
Você pode substituir a configuração padrão do seu bot, como selecionar apenas um sampler específico, steps e um muito útil: definir seu modelo básico favorito no lugar do Stable Diffusion 1.5
/settings
Disponível settings:
/settings /concept:none
/settings /guidance:random
/settings /style:none
/settings /sampler:random
/settings /steps:default
/settings /silent:off
Preste muita atenção às mensagens de status ao fazer uma alteração de configuração, pois elas informarão como reverter a alteração. Às vezes, a reversão requer o parâmetro off (desligado), none (nenhum) ou default (padrão)
Antes de fazer uma alteração nos padrões, talvez você queira save os padrões como um loadout, conforme explicado abaixo, para que possa reverter se não estiver satisfeito com a configuração e quiser começar de novo.
CARGAS
O comando /settings também exibe seus carregamentos na parte inferior da resposta.
Facilite a troca de fluxos de trabalho salvando loadouts. Por exemplo, você pode ter um modelo básico preferido e sampler para anime, e um modelo diferente para realismo, ou algum outro settings para um projeto ou cliente específico. Os loadouts permitem que você substitua todos os seus settings em um piscar de olhos.
Por exemplo, se eu quiser save meu settings como está, posso criar um nome como Morgan's Presets Feb 14:
/settings /save:morgans-presets-feb14
Gerencie seus equipamentos:
Save atual settings: /settings /save:coolset1
Exibir o atual settings: /settings /show:coolset1
Recuperar uma configuração: /settings /load:coolset1
SILENT MODE
As mensagens de depuração, como a confirmação da repetição do prompt, são muito prolixas? Você pode tornar o bot completamente silent com esse recurso. Só não se esqueça de que ativou esse recurso ou você achará que o bot está ignorando você, pois ele nem mesmo informará o tempo estimado de render ou qualquer confirmação!
/settings /silent:on
Para ativá-lo novamente, basta alterar ON para OFF
Depreciado e experimental
Esta é uma coleção de experimentos e os comandos mais antigos ainda são compatíveis, mas foram substituídos por técnicas mais novas. É difícil recomendá-los para produção, mas ainda assim são divertidos de usar.
PONTUAÇÃO ESTÉTICA
Aesthetics é uma opção experimental que permite um modelo de avaliação estética em uma imagem renderizada, como parte do processo de renderização. Isso também está disponível na API Graydient .
Esses modelos de aprendizado de máquina tentam classificar a qualidade/beleza visual de uma imagem de forma numérica
/render a cool cat <sdxl> /aesthetics
Ele retorna uma pontuação de estética ("beleza") de 1 a 10 e uma pontuação de artefatos de 1 a 5 (sendo a baixa melhor). Para ver o que é considerado bom ou ruim, aqui está o conjunto de dados. A pontuação também pode ser vista em /showprompt
BREW
Brew foi substituído por /polly. (usado para adicionar efeitos aleatórios)
/brew a cool dog = /polly cool dog
Isso retorna o mesmo resultado.
MEME
Adicionamos esse meme como uma piada, mas ele ainda funciona e é bastante hilário. Você pode adicionar o texto do meme da fonte Internet Huge IMPACT na parte superior e inferior da imagem, uma seção de cada vez.
/meme /top:Não se pode simplesmente
(próxima vez)
/meme /bottom:Walk into Mordor
INSTRUÇÕES PIX 2 PIX
Substituído por: Inpaint, Outpaint e Remix
Essa era a novidade da época, uma tecnologia chamada Instruct Pix2Pix, o comando /edit. Responder a uma foto como esta:
/editar adicionar fogos de artifício ao céu
Faça perguntas "e se" style para images de paisagens e natureza, em linguagem natural, para ver as mudanças. Embora essa tecnologia seja interessante, o Instruct Pix2Pix produz resultados de baixa resolução, por isso é difícil recomendá-la. Ele também está bloqueado em sua própria arte style, portanto, não é compatível com nossos concepts, loras, embeddings, etc. Ele está bloqueado na resolução 512×512. Se estiver trabalhando em lewds ou anime, essa é a ferramenta errada para o trabalho. Em vez disso, use /remix . Você também pode control o efeito com um parâmetro de força
/edit /strength:0.5 E se os edifícios estiverem pegando fogo?
ESTILOS
Os estilos foram substituídos pelo sistema de receitas mais avançado. Os estilos são usados para criar atalhos de prompt pessoais que não se destinam ao compartilhamento. Você pode trocar estilos com outra pessoa usando o comando copy, mas eles não funcionarão sem o conhecimento desses códigos. Nossos usuários acharam isso confuso, por isso as receitas são globais. Para explorar esse recurso, digite:
/estilos