Javascriptブロッカーが検出されました

アカウントを作成するには、一時的に一時停止するか、ホワイトリストに登録してください。

アプリから当社のリンクを開いた場合は、右上にある3つの点を探して、ブラウザで当社のページを開いてください。私たちは広告を表示したり、あなたのデータを販売/共有することはありませんが、私たちのウェブサイトが正常に動作するためにはJavascriptが必要です。ありがとうございました!-チーム・Graydient

PirateDiffusion ガイド

Pirate Diffusion

Is there a Checkpoint, Embedding, LoRA, or other model that you want preloaded?  Request a model install

pirate diffusion ロゴ

概要

Pirate Diffusion by Graydient AI is the most powerful bot on Telegram. It is a multi-modal bot, meaning that it handles large language models like DeepSeek and Llama 3.3, tens of thousands of image models like HiDream, Chroma, FLUX, Stable Diffusion 3.5, AuraFlow, Pony, and SDXL and also video models like Wan, Hunyuan and LightTricks (LTX).

 

信じられないほどの価値

他のジェネレーティブAIサービスとは異なり、「トークン」や「クレジット」は必要ありません。PirateDiffusion は無制限に使用できるように設計されており、ロイヤリティフリーで、Graydient'webUI にバンドルされています。

なぜボットを使うのか?

モバイルでは非常に高速かつ軽量で、ソロでも、見知らぬ人や友人とのグループでも使用できます。私たちのcommunity Powerfuly ComfyUIワークフロー用のチャットマクロを作っているので、シンプルなチャットボットからデスクトップレンダリングの結果を完全に得ることができます。正気とは思えません。 

 

他に何ができる?

 

Imagesビデオ、LLM チャット。何でもできる。 

GUIなしで数回のキー操作で4Kimages 作成できます。主要なStable Diffusionはすべてチャットで使用できます。ビジュアルインターフェイスが必要な機能もあり、その場合はウェブページをポップアップ表示します(UnifiedWebUI インテグレーション)。

プライベートボットを使って一人で作成することも、グループに参加して他の人が作っているものを見ることもできます。また、PollyGPTのLLMとStableDiffusionのモデルをつなぐ/animebotのようなテーマ別のbots 、彼らとチャットをしながら制作を進めることもできます!ロードアウト、recipe (マクロ)ウィジェット(ビジュアルGUIビルダー)、カスタムbots を使って、あなただけのworkflow 。たくさんのことができます!

オリジン・ストーリー

Pirate Diffusion という名前は、2022年10月にリークされた Stable Diffusion 1.5モデルに由来する。 オープンソース.私たちは最初のStable DiffusionボットをTelegramで作り、何千人もの人が集まった。しかし、はっきり言っておくと、ここでは海賊行為は行われておらず、ただ名前が気に入っただけなのだ。それでも、十分な数の人々(そして私たちの銀行)が、この名前は少しやり過ぎだと言ったので、私たちは会社名を "Graydient" に変更しました。しかし、私たちは Pirate Diffusion が大好きです。 楽しく、面白い人々を惹きつけます。

Plus会員には無制限のビデオ・ジェネレーションが用意されている!  

Graydientビデオプランのメンバーであれば、使用できる様々なビデオワークフローがあります。ビデオワークフローには、プロンプトをビデオに変換する方法と、既存の写真をビデオに変換する方法の2種類があります。 (将来的には、ビデオからビデオへの変換を追加する予定です。 これはまだ利用できません)。

Text to music – two modes!

AUTOMATIC LYRICS
 
 /makesong Write a song about being in the face by a California Rattlesnake. Incorporate "dirty sanchez" and "Roosevelt Hoover"
 
MANUAL LYRICS
 
We plan to offer multiple music workflows. The first is called “music-ace” and it works like this:
 
 
/workflow /run:music-ace [verse] gonna make some songs [bridge] gonna make em [chorus] with pirate diffusion yeah!
 
Listen to more samples and get more ai song generation tips in our our detailed music-making blog.

テキストからビデオへ

まず、ワークフローのページを見て、テキストからビデオへのショートネームを見つけてください。 よく使われるのは
  • WAN 2.1 - 現在のオープンソースのトップビデオモデル!WANは、HunYuanよりもプロンプトの粘着性とアニメーションが優れているように見えるが、解剖学的には悪い。
  • Boringvideo- iPhoneから送られてきたような、本物そっくりの普通のビデオを作成します。
  • HunYuan- 3つのタイプ、workflow 一番下を見てください。Hunyuanは最もリアルなビデオを作成します。Q "の数字が高いほど品質は高くなりますが、動画は短くなります。
  • ビデオ- 単にビデオと呼ばれるものは、3Dアニメに最適なLTX Lighttricksを使用しています。
 
/wf /run:video-hunylora-q8 cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
 

PirateDiffusion HunyuanとLightTricks / LTXのビデオとロラをサポートしています! 複数のビデオモデルを追加しており、無制限の画像と無制限のロラトレーニングとともに、サービスの一環として無制限に使用することができます。

LTXでは、プロンプトの構造は非常に重要である。プロンプトが短いと静止画になる。アクションや指示が多すぎるプロンプトは、映像がさまざまなランダムな部屋やキャラクターにパンしてしまう。

ベストプラクティスimages にまとまった動きをさせるには?
 
このようなプロンプトパターンをお勧めする:
  1. まず、カメラが何をしているのか、誰を追っているのかを説明する。例えば、ローアングルのカメラzoom 、俯瞰カメラ、スローパン、ズームアウト、または遠ざかる、など。
  2. 次に、被写体と、その被写体が何に対して、あるいは誰に対して行っているアクションをひとつ説明する。この部分は練習が必要だ! 上の例では、ハンバーガーを食べるロナルドがカメラとシーンのセットアップの後に来ていることに注目してください
  3. シーンを描写する。 これは、AIがあなたが見たいものを「セグメント化」するのに役立ちます。この例では、ピエロの衣装と背景を描写します。
  4. 参考資料を示す。 例えば、"これは映画かテレビ番組のワンシーンのようだ "と言う。
  5. You can specify a lora to control the art direction or character likeness. Add this to the end of the prompt like <move-enhancer-huny>

画像からビデオへ

写真をアップロードしてビデオにすることができます。コマンドはひとつだけではありません。"animate "workflow シリーズを見て、さまざまな種類のAIモデルを使いましょう。また、PirateDiffusion PLAYROOMチャンネルで、他の人がAIモデルを使って作った作品を見ることもできます。

動画の縦横比はアップロードする画像によって決まりますので、それに合わせてトリミングしてください。

そのためには、まず写真をチャットに貼り付け、写真に話しかけるように「返信」をクリックし、次のようなコマンドを与えます:

/wf /run:animate-wan21 a woman makes silly faces towards the camera
または、スカイリールなどの他のワークフローを試してみてください:
/wf /run:animate-skyreels camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe

私たちは、画像からビデオへのオープンソースのAIモデルをホストしています。 最もポピュラーなものは以下の2つです:

animate-skyreels= HunYuanのリアルな動画を使って画像を動画に変換する。

animate-ltx90= LightTricksモデルを使用。3Dアニメやシネマティックビデオに最適。

特別なパラメータ:

/slot1 = ビデオのlength (フレーム数)。 安全なsettings は 89, 97, 105, 113, 121, 137, 153, 185, 201, 225, 241, 257。 それ以上も可能ですが、不安定です。

/スロット2=1秒あたりのフレーム数。 24を推奨。 ターボワークフローは18fpsで動作しますが、変更可能です。24以上は映画的で、30fpsはよりリアルに見えます。 60fpsは低フレームで可能ですが、シマリスのスピードのように見えます。

制限:

  • 動画を作成するにはGraydient Plusの会員である必要があります。
  • 本日、VIPとプレイルーム・チャンネルで多くのビデオ・サンプルをご覧いただけます。 私たちがビデオの仕上げをしている間、ぜひ遊びに来て、あなたの迅速なアイデアを送ってください。
 
新しいrecipe を試してみよう! タイプ /render #quick and your prompt
ヒント:/render #quick - マクロを使用すると、ネガを入力せずにこの品質を達成できる。

Guidance (CFG)。

Classifier-FreeGuidance スケールは、AIがプロンプトにどれだけ忠実に従うかを制御するパラメータで、値が大きいほどプロンプトにより忠実であることを意味する。 

この値を高く設定すると、画像はよりシャープに見えますが、AIがスペースを埋める「創造性」が少なくなるため、ピクセル化やグリッチが発生する可能性があります。 

最も一般的なベースモデルの場合、安全なデフォルトは7である。しかし、guidance 、異なるスケールを使用する特別な高効率モデルがある。

SYNTAX

/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate

guidance の高さや低さは、使用するsampler によって異なる。サンプラーについては後述する。画像を「解く」ために許されるsteps の量も、重要な役割を果たすことがある。

 

例外規定 

一般的なモデルは、このguidance とステップパターンに従うが、最近の高効率モデルは、同じように機能するのに必要なguidance の数がはるかに少なく、1.5~2.5である。 これについては以下で説明する:

高効率モデル

低Steps, 低Guidance

ほとんどのconcepts 、素晴らしい画像を生成するにはguidance 7と35以上steps 。これは、より高効率のモデルが登場するにつれて変化している。

これらのモデルは、images を1/4の時間で作成することができ、4-12steps 、より低いguidance 。これらの モデルには ターボ、ハイパー、LCM 、ライトニング concepts とタグ付けされており、クラシックモデルと互換性があります。同じモデルファミリーのLorasやInversionsと一緒に使うことができます。SDXLファミリーが最も選択肢が多い(右端のプルダウンメニューを使用)。ジャガーノート9ライトニングが人気。

Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]].  Follow it up with an upscale, and the effects are stunning!

エーテルバース-XL(下の写真)のように、guidance 2.5、steps 8 、これらの特別なモデルタイプの使用方法の詳細については、そのノートを調べてください。

VASS(SDXLのみ)

VassはSDXL用のHDRmode で、構図を改善し、彩度を下げることができる。これを好む人もいれば、好まない人もいるでしょう。画像がカラフルに見えすぎる場合は、Refiner (NoFix) なしで試してみてください。

この名前はティモシー・アレクシス・ヴァスに由来しており、SDXLの潜在的な空間を探求している独立研究者である。 興味深い見解を発表しました。.彼の目的は色補正であり、images の内容を改善することです。私たちは彼の公開したコードをPirateDiffusion で実行できるように適応させました。

/render a cool cat <sdxl> /vass

使う理由とタイミングSDXLimages 、黄色すぎたり、中心から外れていたり、色の範囲が狭いと感じたりする場合にお試しください。鮮やかさが増し、背景がきれいになるはずです。

制限事項これはSDXLでのみ動作します。 

 
 

その他のツール(返信コマンド)

Moreツールは、同じ画像のバリエーションを作成します。

同じ被写体を少しずつ違うバリエーションで見るには、moreツールを使う。 

写真を説明する

更新されました! 現在、2つの記述モードがあります:CLIPとFLORENCE2

Describeを使えば、コンピュータ・ビジョンを使ってどんな画像からでもプロンプトを生成できる! これは "返信 "コマンドなので、画像に話しかけるように画像を右クリックし、次のように書きます。

/describe /florence

Florence パラメータを追加すると、より詳細なプロンプトが表示されます。これは新しいFlorence2コンピュータビジョンモデルを使用します。/describe 自体はCLIPモデルを使用します。

ウィジェットを起動するPirateDiffusion