Bloqueador de Javascript detectado

Faça uma pausa temporária ou coloque-nos na lista de permissões para criar uma conta

Se você abriu nosso link a partir de um aplicativo, procure os três pontos no canto superior direito para abrir nossa página em seu navegador. Não exibimos anúncios nem vendemos/compartilhamos seus dados, mas nosso site requer Javascript para funcionar corretamente. Obrigado! -Equipe Graydient

PirateDiffusion Guia

Pirate Diffusion

pirate diffusion logotipo

Visão geral

Pirate Diffusion da Graydient AI é o bot mais poderoso do Telegram. É um bot multimodal, o que significa que ele lida com grandes modelos de linguagem como DeepSeek e Llama 3.3, dezenas de milhares de modelos de imagem como FLUX, Stable Diffusion 3.5, AuraFlow, Pony e SDXL e também modelos de vídeo como Hunyuan e LightTricks (LTX).

 

Valor incrível

Diferentemente de outros serviços de IA generativa, não há necessidade de "tokens" ou "créditos". O PirateDiffusion foi projetado para uso ilimitado, isento de royalties, e é fornecido com o Graydient's webUI.

Por que usar um bot?

É extremamente rápido e leve no celular, e você pode usá-lo sozinho ou em grupos de estranhos ou com amigos. Nosso community está criando macros de bate-papo para fluxos de trabalho poderosos do ComfyUI, para que você obtenha todos os benefícios de um resultado de renderização de desktop a partir de um simples bot de bate-papo. É uma loucura. 

 

O que mais ele pode fazer?

 

Images, vídeo e LLM chats. Ele pode fazer praticamente tudo. 

Você pode criar images 4k com apenas alguns toques no teclado, sem uma GUI. Você pode usar todos os principais recursos do Stable Diffusion via chat. Alguns recursos exigem uma interface visual, e uma página da Web é exibida para eles (integração com a WebUI unificada)

Crie você mesmo com seu bot particular ou participe de grupos e veja o que outras pessoas estão fazendo. Você também pode criar um bots temático, como o /animebot, que conecta nossos LLMs do PollyGPT aos modelos do StableDiffusion, e conversar com eles para ajudá-lo a criar! Crie um workflow que seja totalmente exclusivo para você usando loadouts, recipe (macros) widgets (construtor de guias visuais) e bots personalizado. Ele faz muito!

História de origem

O nome Pirate Diffusion vem do modelo Stable Diffusion 1.5 que vazou em outubro de 2022, que foi de código aberto. Criamos o primeiro bot do Stable Diffusion no Telegram e milhares de pessoas apareceram, e foi assim que começamos. Mas para deixar bem claro: não há pirataria aqui, apenas adoramos o nome. Ainda assim, um número suficiente de pessoas (e nosso banco) disse que o nome era um pouco exagerado, então renomeamos nossa empresa para "Graydient", mas adoramos Pirate Diffusion. Ele atrai pessoas divertidas e interessantes.

A geração ilimitada de vídeos está aqui para os membros Plus!  

Se você for membro do Graydient Plus, poderá experimentar a versão beta hoje mesmo. Há dois modos de vídeo disponíveis no momento: texto para vídeo e imagem para vídeo. Para usar o vídeo, chame o comando /workflow ou o atalho /wf. No momento, há cinco fluxos de trabalho de vídeo, que serão abordados a seguir:
 

Texto para vídeo

/wf /run:video cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
 
PirateDiffusion suporta vídeos e loras de Hunyuan e LightTricks / LTX! Estamos adicionando vários modelos de vídeo e você pode usá-los ilimitadamente como parte do nosso serviço, juntamente com imagens ilimitadas e treinamento ilimitado de lora.

No LTX, a estrutura do prompt é muito importante. Um prompt curto resultará em uma imagem estática. Um prompt com muitas ações e instruções fará com que o vídeo se desloque para diferentes salas ou personagens aleatórios.  
Práticas recomendadas: Como fazer com que seu images se mova de forma coesa
 
Recomendamos um padrão de prompt como este:
  1. Primeiro, descreva o que a câmera está fazendo ou quem ela está seguindo. Por exemplo, uma câmera de ângulo baixo zoom, uma câmera aérea, uma panorâmica lenta, um zoom para fora ou para longe, etc.
  2. Em seguida, descreva o sujeito e uma ação que ele está realizando sobre o que ou quem. Essa parte requer prática! No exemplo acima, observe que Ronald comendo o hambúrguer veio depois da configuração da câmera e da cena
  3. Descreva a cena. Isso ajuda a IA a "segmentar" as coisas que você deseja ver. Portanto, em nosso exemplo, descrevemos o traje e o fundo do palhaço.
  4. Forneça material de referência de apoio. Por exemplo, diga "Isso parece uma cena de um filme ou programa de TV"
  5. You can specify a Flux lora to control the art direction or character likeness. Add this to the end of the prompt like <muscularwoman-flux>
  6.  Você pode especificar o tamanho como /size:468×832 e /guidance para control o efeito "HDR"

Fluxos de trabalho adicionais

Esses fluxos de trabalho de vídeo estão disponíveis agora mesmo, estamos no ar!

vídeo = LTX em tamanho real com integração Flux na primeira etapa para loras. Caso de uso: vídeos bonitos, mas curtos. Nosso vídeo de melhor aparência workflow, sem dúvida.

video-medium = Bem arredondado. Pode lidar bem com movimentos. Não usa loras, mas é rápido e pode fazer vídeos mais longos do que o flux .

video-turbo = O mais rápido, com uma desvantagem de qualidade. Melhor para temas estáticos e animações sutis. Pode ter uma boa aparência em tamanhos maiores e steps, gosto de começar minhas ideias aqui para ver se elas serão animadas e, em seguida, mover meu seed e outros settings para cima na cadeia.

Há também alguns *ahem* picantes, digite o comando /workflow para navegar por todos eles.

Imagem para vídeo

Você também pode carregar uma foto e transformá-la em um vídeo. Para fazer isso, primeiro cole a foto no bate-papo e clique em "Reply" (Responder) como se fosse falar com a foto e, em seguida, dê a ela um comando como este:

/wf /run:animate camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe

Há dois níveis desse vídeo workflow, que são:

animar = converter uma imagem em vídeo 

animate-turbo = o mesmo, usando modelos pequenos/rápidos

Parâmetros especiais:

/slot1 = length do vídeo em quadros. Os settings seguros são 89, 97, 105, 113, 121, 137, 153, 185, 201, 225, 241, 257. Mais é possível, mas instável

/slot2 = quadros por segundo. Recomenda-se 24. Os fluxos de trabalho turbo são executados a 18 fps, mas podem ser alterados. Acima de 24 é cinematográfico, 30 fps parece mais realista. 60 fps é possível em quadros baixos, mas parece uma velocidade de esquilo.

Limitações:

  • Você deve ser um membro do Graydient Plus para experimentar a versão beta
  • Muitas amostras de vídeo estão disponíveis no canal VIP e Playroom hoje. Venha participar e nos envie suas ideias rápidas enquanto damos os toques finais no vídeo.
 
Na foto abaixo: O Flux "Atomix" workflow , mas direto do prompt para o vídeo, sem necessidade da etapa Img2img.
Experimente um novo recipe! Digite /render #quick e seu prompt
Dica: use /render #quick - uma macro para obter essa qualidade sem digitar negativos

Guidance (CFG)

A escala Classifier-Free Guidance é um parâmetro que controla a proximidade com que a IA segue o prompt; valores mais altos significam mais aderência ao prompt. 

Quando esse valor é definido como mais alto, a imagem pode parecer mais nítida, mas a IA terá menos "criatividade" para preencher os espaços, portanto, podem ocorrer pixelização e falhas. 

Um padrão seguro é 7 para os modelos básicos mais comuns. No entanto, há modelos especiais de alta eficiência que usam uma escala guidance diferente, explicada a seguir.

SINTAXE

/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate

A definição de quão alto ou baixo o guidance deve ser depende do sampler que você está usando. Os samplers são explicados abaixo. A quantidade de steps permitida para "resolver" uma imagem também pode desempenhar um papel importante.

 

Exceções à regra 

Os modelos típicos seguem esse padrão guidance e step, mas os modelos mais novos de alta eficiência exigem muito menos guidance para funcionar da mesma forma, entre 1,5 e 2,5. Isso é explicado abaixo:

Modelos de alta eficiência

Baixo Steps, Baixo Guidance

A maioria dos concepts exige um guidance de 7 e 35+ steps para gerar uma ótima imagem. Isso está mudando com a chegada de modelos de maior eficiência.

Esses modelos podem criar images em 1/4 do tempo, exigindo apenas 4-12 steps com menor guidance. Você pode encontrá-los marcados como Turbo, Hyper, LCM e Lightning no sistema concepts e são compatíveis com os modelos clássicos. Você pode usá-los juntamente com Loras e Inversions da mesma família de modelos. A família SDXL tem a maior seleção (use o menu suspenso, na extrema direita). O Juggernaut 9 Lightining é uma escolha popular.

Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]].  Follow it up with an upscale, and the effects are stunning!

Consulte as notas desses tipos de modelos especiais para obter mais detalhes sobre como usá-los, como o Aetherverse-XL (foto abaixo), com um guidance de 2,5 e 8 steps , conforme a foto abaixo.

VASS (somente SDXL)

Vass é um HDR mode para SDXL, que também pode melhorar a composição e reduzir a saturação de cores. Alguns preferem esse recurso, outros não. Se a imagem parecer muito colorida, tente usá-la sem o Refiner (NoFix)

O nome vem de Timothy Alexis Vass, um pesquisador independente que vem explorando o espaço latente da SDXL e fez fez algumas observações interessantes. Seu objetivo é a correção de cores e o aprimoramento do conteúdo do site images. Adaptamos o código publicado por ele para ser executado no site PirateDiffusion.

/render a cool cat <sdxl> /vass

Por que e quando usá-lo: Experimente-o na SDXL images que esteja muito amarela, descentralizada ou cuja gama de cores pareça limitada. Você verá uma melhor vibração e fundos mais limpos.

Limitações: Isso só funciona em SDXL. 

 
 

Mais ferramenta (comando de resposta)

A ferramenta More cria variações da mesma imagem

Para ver o mesmo tema em variações ligeiramente diferentes, use a ferramenta mais. 

DESCREVER UMA FOTO

Atualizado! Agora há dois modos de descrição: CLIP e FLORENCE2

Gere um prompt a partir de qualquer imagem com visão computacional com o Describe! É um comando de "resposta", portanto, clique com o botão direito do mouse na imagem como se fosse falar com ela e escreva

/describe /florence

O parâmetro adicional Florence fornece um prompt muito mais detalhado. Ele usa o novo modelo de visão computacional Florence2. O /describe por si só usa o modelo CLIP

Exemplo

Iniciar widgets em PirateDiffusion