Javascriptブロッカーが検出されました

アカウントを作成するには、一時的に一時停止するか、ホワイトリストに登録してください。

アプリから当社のリンクを開いた場合は、右上にある3つの点を探して、ブラウザで当社のページを開いてください。私たちは広告を表示したり、あなたのデータを販売/共有することはありませんが、私たちのウェブサイトが正常に動作するためにはJavascriptが必要です。ありがとうございました!-チーム・Graydient

PirateDiffusion ガイド

Pirate Diffusion

pirate diffusion ロゴ

概要

Pirate Diffusion byGraydient AIはTelegramで最もパワフルなボットです。マルチモーダルボットであり、DeepSeekやLlama 3.3のような大規模な言語モデル、FLUX、Stable Diffusion 3.5、AuraFlow、Pony、SDXLのような何万もの画像モデル、そしてHunyuanやLightTricks (LTX)のようなビデオモデルを扱うことができる。

 

信じられないほどの価値

他のジェネレーティブAIサービスとは異なり、「トークン」や「クレジット」は必要ありません。PirateDiffusion は無制限に使用できるように設計されており、ロイヤリティフリーで、Graydient'webUI にバンドルされています。

なぜボットを使うのか?

モバイルでは非常に高速かつ軽量で、ソロでも、見知らぬ人や友人とのグループでも使用できます。私たちのcommunity Powerfuly ComfyUIワークフロー用のチャットマクロを作っているので、シンプルなチャットボットからデスクトップレンダリングの結果を完全に得ることができます。正気とは思えません。 

 

他に何ができる?

 

Imagesビデオ、LLM チャット。何でもできる。 

GUIなしで数回のキー操作で4Kimages 作成できます。主要なStable Diffusionはすべてチャットで使用できます。ビジュアルインターフェイスが必要な機能もあり、その場合はウェブページをポップアップ表示します(UnifiedWebUI インテグレーション)。

プライベートボットを使って一人で作成することも、グループに参加して他の人が作っているものを見ることもできます。また、PollyGPTのLLMとStableDiffusionのモデルをつなぐ/animebotのようなテーマ別のbots 、彼らとチャットをしながら制作を進めることもできます!ロードアウト、recipe (マクロ)ウィジェット(ビジュアルGUIビルダー)、カスタムbots を使って、あなただけのworkflow 。たくさんのことができます!

オリジン・ストーリー

Pirate Diffusion という名前は、2022年10月にリークされた Stable Diffusion 1.5モデルに由来する。 オープンソース.私たちは最初のStable DiffusionボットをTelegramで作り、何千人もの人が集まった。しかし、はっきり言っておくと、ここでは海賊行為は行われておらず、ただ名前が気に入っただけなのだ。それでも、十分な数の人々(そして私たちの銀行)が、この名前は少しやり過ぎだと言ったので、私たちは会社名を "Graydient" に変更しました。しかし、私たちは Pirate Diffusion が大好きです。 楽しく、面白い人々を惹きつけます。

Plus会員には無制限のビデオ・ジェネレーションが用意されている!  

Graydient Plusのメンバーであれば、今すぐベータ版をお試しいただけます。現在、テキストをビデオに、画像をビデオにという2つのビデオモードが利用可能です。 ビデオを使用するには、/workflow コマンドまたはショートカット /wf を呼び出します。 現在、5つのビデオ・ワークフローがあります:
 

テキストからビデオへ

/wf /run:video cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
 
PirateDiffusion HunyuanとLightTricks / LTXのビデオとロラをサポートしています!

LTXでは、プロンプトの構造が重要です。プロンプトが短いと、静止画像になります。アクションや指示が多すぎるプロンプトは、ビデオが異なるランダムな部屋や文字にパンする原因となります。  
ベストプラクティスimages にまとまった動きをさせるには?
 
このようなプロンプトパターンをお勧めする:
  1. まず、カメラが何をしているのか、誰を追っているのかを説明する。例えば、ローアングルのカメラzoom 、俯瞰カメラ、スローパン、ズームアウト、または遠ざかる、など。
  2. 次に、被写体と、その被写体が何に対して、あるいは誰に対して行っているアクションをひとつ説明する。この部分は練習が必要だ! 上の例では、ハンバーガーを食べるロナルドがカメラとシーンのセットアップの後に来ていることに注目してください
  3. シーンを描写する。 これは、AIがあなたが見たいものを「セグメント化」するのに役立ちます。この例では、ピエロの衣装と背景を描写します。
  4. 参考資料を示す。 例えば、"これは映画かテレビ番組のワンシーンのようだ "と言う。
  5. You can specify a Flux lora to control the art direction or character likeness. Add this to the end of the prompt like <muscularwoman-flux>
  6.  /size:468×832 および /guidance のようにサイズを指定することで、control "HDR "効果が得られます。

追加ワークフロー

これらのビデオ・ワークフローは今すぐ利用できる!

video= フルサイズのLTXにFlux 、ロラスの最初のステップで統合。 使用例:美しいビデオだが短い。 workflow 、断トツに格好いい。

video-medium= 丸みを帯びている。モーションをうまく扱える。ロラスは使わないが、スピードが速く、flux のものより長いビデオを作れる。

video-turbo= 画質はトレードオフだが最速。 静止した被写体や微妙なアニメーションに最適。 高いサイズでもきれいに見えるし、steps 。私はここでアイデアを始めて、アニメーションになるかどうかを確認し、それからseed 、他のsettings 。

workflow コマンドを入力すればすべて閲覧できる。

画像からビデオへ

写真をアップロードしてビデオにすることもできます。 そのためには、まず写真をチャットに貼り付け、写真に向かって話すように「返信」をクリックし、次のようなコマンドを与えます:

/wf /run:animate camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe

workflowこのビデオには2つのレベルがある:

animate= 画像を動画に変換する 

アニメート・ターボ=同じ、小型/高速モデルを使用

特別なパラメータ:

/slot1 = ビデオのlength (フレーム数)。 安全なsettings は 89, 97, 105, 113, 121, 137, 153, 185, 201, 225, 241, 257。 それ以上も可能ですが、不安定です。

/スロット2=1秒あたりのフレーム数。 24を推奨。 ターボワークフローは18fpsで動作しますが、変更可能です。24以上は映画的で、30fpsはよりリアルに見えます。 60fpsは低フレームで可能ですが、シマリスのスピードのように見えます。

制限:

  • ベータ版をお試しいただくには、Graydient Plus の会員である必要があります。
  • 本日、VIPとプレイルーム・チャンネルで多くのビデオ・サンプルをご覧いただけます。 私たちがビデオの仕上げをしている間、ぜひ遊びに来て、あなたの迅速なアイデアを送ってください。
 
下の写真:Flux "Atomix"workflow しかし、Img2imgのステップを必要とせず、直接プロンプトからビデオへ。
新しいrecipe を試してみよう! タイプ /render #quick and your prompt
ヒント:/render #quick - マクロを使用すると、ネガを入力せずにこの品質を達成できる。

Guidance (CFG)。

Classifier-FreeGuidance スケールは、AIがプロンプトにどれだけ忠実に従うかを制御するパラメータで、値が大きいほどプロンプトにより忠実であることを意味する。 

この値を高く設定すると、画像はよりシャープに見えますが、AIがスペースを埋める「創造性」が少なくなるため、ピクセル化やグリッチが発生する可能性があります。 

最も一般的なベースモデルの場合、安全なデフォルトは7である。しかし、guidance 、異なるスケールを使用する特別な高効率モデルがある。

SYNTAX

/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate

guidance の高さや低さは、使用するsampler によって異なる。サンプラーについては後述する。画像を「解く」ために許されるsteps の量も、重要な役割を果たすことがある。

 

例外規定 

一般的なモデルは、このguidance とステップパターンに従うが、最近の高効率モデルは、同じように機能するのに必要なguidance の数がはるかに少なく、1.5~2.5である。 これについては以下で説明する:

高効率モデル

低Steps, 低Guidance

ほとんどのconcepts 、素晴らしい画像を生成するにはguidance 7と35以上steps 。これは、より高効率のモデルが登場するにつれて変化している。

これらのモデルは、images を1/4の時間で作成することができ、4-12steps 、より低いguidance 。これらの モデルには ターボ、ハイパー、LCM 、ライトニング concepts とタグ付けされており、クラシックモデルと互換性があります。同じモデルファミリーのLorasやInversionsと一緒に使うことができます。SDXLファミリーが最も選択肢が多い(右端のプルダウンメニューを使用)。ジャガーノート9ライトニングが人気。

Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]].  Follow it up with an upscale, and the effects are stunning!

エーテルバース-XL(下の写真)のように、guidance 2.5、steps 8 、これらの特別なモデルタイプの使用方法の詳細については、そのノートを調べてください。

VASS(SDXLのみ)

VassはSDXL用のHDRmode で、構図を改善し、彩度を下げることができる。これを好む人もいれば、好まない人もいるでしょう。画像がカラフルに見えすぎる場合は、Refiner (NoFix) なしで試してみてください。

この名前はティモシー・アレクシス・ヴァスに由来しており、SDXLの潜在的な空間を探求している独立研究者である。 興味深い見解を発表しました。.彼の目的は色補正であり、images の内容を改善することです。私たちは彼の公開したコードをPirateDiffusion で実行できるように適応させました。

/render a cool cat <sdxl> /vass

使う理由とタイミングSDXLimages 、黄色すぎたり、中心から外れていたり、色の範囲が狭いと感じたりする場合にお試しください。鮮やかさが増し、背景がきれいになるはずです。

制限事項これはSDXLでのみ動作します。 

 
 

その他のツール(返信コマンド)

Moreツールは、同じ画像のバリエーションを作成します。

同じ被写体を少しずつ違うバリエーションで見るには、moreツールを使う。 

写真を説明する

更新されました! 現在、2つの記述モードがあります:CLIPとFLORENCE2

Describeを使えば、コンピュータ・ビジョンを使ってどんな画像からでもプロンプトを生成できる! これは "返信 "コマンドなので、画像に話しかけるように画像を右クリックし、次のように書きます。

/describe /florence

Florence パラメータを追加すると、より詳細なプロンプトが表示されます。これは新しいFlorence2コンピュータビジョンモデルを使用します。/describe 自体はCLIPモデルを使用します。

ウィジェットを起動するPirateDiffusion