자바스크립트 차단기가 감지됨

계정을 만들려면 일시적으로 일시 중지하거나 화이트리스트에 추가해 주세요.

앱에서 링크를 연 경우 오른쪽 상단의 점 3개를 찾아 브라우저에서 페이지를 엽니다. 당사는 광고를 표시하거나 귀하의 데이터를 판매/공유하지 않지만, 웹사이트가 제대로 작동하려면 자바스크립트가 필요합니다. 감사합니다! -팀 Graydient

PirateDiffusion 가이드

Pirate Diffusion

Is there a Checkpoint, Embedding, LoRA, or other model that you want preloaded?  Request a model install

pirate diffusion 로고

개요

Pirate Diffusion by Graydient AI is the most powerful bot on Telegram. It is a multi-modal bot, meaning that it handles large language models like DeepSeek and Llama 3.3, tens of thousands of image models like HiDream, Chroma, FLUX, Stable Diffusion 3.5, AuraFlow, Pony, and SDXL and also video models like Wan, Hunyuan and LightTricks (LTX).

 

놀라운 가치

PirateDiffusion 은 로열티 없이 무제한으로 사용할 수 있도록 설계되었으며, Graydient의 webUI 과 번들로 제공됩니다.

봇을 사용하는 이유는 무엇인가요?

모바일에서 매우 빠르고 가벼우며, 혼자 또는 낯선 사람이나 친구들과 함께 그룹으로 사용할 수 있습니다. 저희 community 에서 강력한 ComfyUI 워크플로우를 위한 채팅 매크로를 만들고 있으므로 간단한 채팅 봇으로 데스크톱 렌더링 결과의 모든 이점을 누릴 수 있습니다. 정말 대단하죠. 

 

그 밖의 기능은 무엇인가요?

 

Images, 동영상 및 LLM 채팅을 지원합니다. 거의 모든 것을 할 수 있습니다. 

GUI 없이 몇 번의 키 입력만으로 4K images 만들 수 있습니다. 채팅을 통해 모든 주요 Stable Diffusion 기능을 사용할 수 있습니다. 일부 기능에는 시각적 인터페이스가 필요하며, 해당 기능을 위한 웹 페이지가 팝업으로 표시됩니다(통합 WebUI 통합).

개인 봇으로 직접 만들거나 그룹에 가입하여 다른 사람들이 무엇을 만들고 있는지 살펴보세요. 또한 PollyGPT LLM을 StableDiffusion 모델에 연결하는 /animebot과 같은 테마의 bots 를 만들고 채팅을 통해 제작에 도움을 받을 수 있습니다! 로드아웃, recipe (매크로) 위젯(비주얼 가이 빌더), 커스텀 bots 을 사용하여 나만의 workflow 을 만들어 보세요. 많은 기능을 제공합니다!

오리진 스토리

Pirate Diffusion 이라는 이름은 2022년 10월에 유출된 Stable Diffusion 1.5 모델에서 따온 것입니다. 오픈 소스. 저희는 텔레그램에 첫 번째 스테이블 디퓨전 봇을 만들었고, 수천명의 사람들이 참여하여, 그렇게 시작하게 되었습니다. 하지만 명확히 말씀드리자면, 불법복제는 전혀 없으며, 단지 그 이름이 마음에 들었을 뿐입니다. 하지만, 많은 사람들이 (그리고 저희 은행에서도) 이름이 너무 많다고 말해서 회사 이름을 "Graydient"로 변경했지만, 저희는 Pirate Diffusion 이 재미있고 흥미로운 사람들을 끌어들이는 이름이라고 생각합니다.

플러스 회원을 위한 무제한 동영상 생성이 시작되었습니다!  

Graydient동영상 요금제 회원인 경우 사용할 수 있는 다양한 동영상 워크플로가 있습니다. 동영상 워크플로에는 프롬프트를 동영상으로 전환하는 것과 기존 사진을 동영상으로 전환하는 두 가지 일반적인 카테고리가 있습니다. (향후에는 비디오 대 비디오 기능을 추가할 예정입니다. 아직 제공되지 않습니다.)

Text to music – two modes!

AUTOMATIC LYRICS
 
 /makesong Write a song about being in the face by a California Rattlesnake. Incorporate "dirty sanchez" and "Roosevelt Hoover"
 
MANUAL LYRICS
 
We plan to offer multiple music workflows. The first is called “music-ace” and it works like this:
 
 
/workflow /run:music-ace [verse] gonna make some songs [bridge] gonna make em [chorus] with pirate diffusion yeah!
 
Listen to more samples and get more ai song generation tips in our our detailed music-making blog.

텍스트를 동영상으로

먼저 워크플로 페이지를 탐색하여 텍스트와 동영상의 짧은 이름을 찾아보세요. 인기 있는 것은 다음과 같습니다:
  • WAN 2.1 - 현재 최고의 오픈 소스 비디오 모델, 간단한 프롬프트를 작성하면 실행됩니다! WAN은 훈위안보다 프롬프트 밀착도와 애니메이션이 더 나은 것으로 보이지만, 해부학적 구조는 더 나쁩니다.
  • 보링비디오 - 아이폰에서 촬영한 것처럼 생생한 일반 동영상을 제작합니다.
  • 훈위안 - 세 가지 유형이 있으며, workflow 페이지 하단에서 찾을 수 있습니다. 훈위안은 가장 사실적인 동영상을 제작합니다. "Q" 숫자가 높을수록 화질이 좋지만 동영상의 길이가 짧아집니다.
  • 비디오 - 간단히 비디오라고 불리는 것은 3D 만화에 적합한 LTX 라이트트릭을 사용합니다.
 
/wf /run:video-hunylora-q8 cinematic low angle video of a ronald mcdonald clown eating a square hamburger, the restaurant ((sign text says "Wendys")), ronald mcdonald's clown costume has red afro hair and a red nose with white face paint, the restaurant is brown, the burger is pointy and square, the background has blur bokeh and people are walking around
 

PirateDiffusion 훈위안과 라이트트릭스/LTX 동영상과 로라를 지원합니다! 여러 비디오 모델을 추가하고 있으며 무제한 이미지 및 무제한 로라 교육과 함께 서비스의 일부로 무제한으로 사용할 수 있습니다.

LTX에서는 프롬프트의 구조가 매우 중요합니다. 프롬프트가 짧으면 정적인 이미지가 생성됩니다. 프롬프트에 동작과 지침이 너무 많으면 비디오가 다른 임의의 방이나 캐릭터로 이동하게 됩니다.

모범 사례: images 을 일관성 있게 운영하는 방법
 
다음과 같은 프롬프트 패턴을 권장합니다:
  1. 먼저 카메라가 무엇을 하고 있는지 또는 누구를 팔로우하는지 설명하세요. 예를 들어 로우 앵글 카메라 zoom, 오버헤드 카메라, 슬로우 팬, 줌아웃 또는 원거리 등입니다.
  2. 다음으로 대상과 그들이 무엇을 또는 누구에게 하는 행동 한 가지를 설명합니다. 이 부분은 연습이 필요합니다! 위의 예에서 로널드가 햄버거를 먹는 장면은 카메라와 장면 설정 이후에 나온 것을 볼 수 있습니다.
  3. 장면을 설명합니다. 이렇게 하면 AI가 사용자가 보고 싶은 것을 '세그먼트화'하는 데 도움이 됩니다. 이 예에서는 광대 의상과 배경을 설명합니다.
  4. 참고 자료를 제시하세요. 예를 들어 "이것은 영화나 TV 쇼의 한 장면처럼 보입니다"라고 말합니다.
  5. You can specify a lora to control the art direction or character likeness. Add this to the end of the prompt like <move-enhancer-huny>

이미지에서 동영상으로

사진을 업로드하여 동영상으로 만들 수 있습니다. 한 가지 명령만 있는 것이 아니라 '애니메이션' workflow 시리즈를 살펴보고 다양한 종류의 AI 모델을 사용해 보세요. 다양한 모델과 프롬프트 전략을 시도하여 프로젝트에 가장 적합한 모델을 찾거나, PirateDiffusion PLAYROOM 채널에서 다른 사람들이 만든 것을 살펴보세요.

동영상의 화면 비율은 업로드하는 이미지에 따라 결정되므로 그에 맞게 잘라주세요.

이렇게 하려면 먼저 사진을 채팅에 붙여넣고 사진과 대화하듯 '답글'을 클릭한 다음 다음과 같이 명령합니다:

/wf /run:animate-wan21 a woman makes silly faces towards the camera
또는 SkyReels와 같은 다른 워크플로우 중 하나를 사용해 보세요:
/wf /run:animate-skyreels camera video that slightly changes the angle, focused on a lovely girl smiling and looking at the camera, she looks curious and confident while maintaining eyes on the viewer, her hair is parted, she sits in front of a bookshelf and peeping gremlin eyes behind her, she is relaxing vibe

이미지-투-비디오를 위한 오픈 소스 AI 모델을 호스팅합니다. 가장 인기 있는 두 가지 모델은 다음과 같습니다:

애니메이션-스카이릴 = 훈위안 실사 동영상을 사용하여 이미지를 동영상으로 변환합니다.

animate-ltx90 = 라이트트릭스 모델을 사용합니다. 3D 만화 및 시네마틱 비디오에 적합

특수 매개변수:

/슬롯1 = length 비디오의 프레임 수입니다. 안전한 settings 은 89, 97, 105, 113, 121, 137, 137, 153, 185, 201, 225, 241, 257입니다. 그 이상도 가능하지만 불안정

/슬롯2 = 초당 프레임 수. 24를 권장합니다. 터보 워크플로는 18fps로 실행되지만 변경할 수 있습니다. 24 이상이면 시네마틱하고 30fps가 더 사실적으로 보입니다. 낮은 프레임에서는 60fps도 가능하지만 다람쥐 속도처럼 보입니다.

제한 사항:

  • 동영상을 만들려면 Graydient 플러스 회원이어야 합니다.
  • 현재 VIP 및 플레이룸 채널에서 많은 동영상 샘플을 확인할 수 있습니다. 동영상을 완성하는 동안 저희와 함께 시간을 보내며 즉석에서 아이디어를 보내주세요.
 
새로운 recipe! 입력 /render #퀵 그리고 프롬프트
팁: /render #quick - 매크로를 사용하면 네거티브를 입력하지 않고도 이 품질을 얻을 수 있습니다.

Guidance (CFG)

분류기 없음 Guidance 척도는 AI가 프롬프트를 얼마나 잘 따르는지를 제어하는 매개변수로, 값이 클수록 프롬프트를 더 잘 준수한다는 의미입니다. 

이 값을 높게 설정하면 이미지가 더 선명하게 보일 수 있지만 AI가 공간을 채울 수 있는 '창의성'이 줄어들기 때문에 픽셀화 및 글리치가 발생할 수 있습니다. 

가장 일반적인 기본 모델의 경우 안전한 기본값은 7입니다. 그러나 다른 guidance 척도를 사용하는 특수 고효율 모델이 있으며, 아래에 설명되어 있습니다.

SYNTAX

/render <sdxl> [[<fastnegative-xl:-2>]]
/guidance:7
/size:1024x1024
Takoyaki on a plate

guidance 을 얼마나 높게 또는 낮게 설정해야 하는지는 사용 중인 sampler 에 따라 다릅니다. 샘플러는 아래에 설명되어 있습니다. 이미지 '풀기'에 허용되는 steps 의 양 또한 중요한 역할을 할 수 있습니다.

 

규칙의 예외 

일반적인 모델은 이 guidance 및 단계 패턴을 따르지만, 최신 고효율 모델은 동일한 방식으로 작동하는 데 훨씬 적은 guidance (1.5 - 2.5)가 필요합니다. 이에 대한 설명은 아래에 나와 있습니다:

고효율 모델

낮음 Steps, 낮음 Guidance

concepts 대부분 guidance 7, steps 35 이상이면 멋진 이미지를 생성할 수 있습니다. 하지만 고효율 모델이 등장하면서 상황이 달라지고 있습니다.

이 모델은 4-12 steps 을 4/12 guidance 로 낮추면 1/4의 시간으로 images 을 만들 수 있습니다. 태그는 다음과 같이 찾을 수 있습니다. 터보, 하이퍼, LCM, 라이트닝 concepts 로 태그를 지정할 수 있으며 기존 모델과 호환됩니다. 같은 모델군의 로라스 및 인버스와 함께 사용할 수 있습니다. SDXL 제품군은 선택의 폭이 가장 넓습니다(맨 오른쪽 풀다운 메뉴 사용). 저거너트 9 라이트닝이 가장 인기 있는 제품입니다.

Some of our other favorite Lightning models are <boltning-xl> and <realvis4light-xl> which look great with a guidance of 2, steps between 4-12, and Refiner (no fix) turned off. Polish it off with a good negative like [[<fastnegative-xl:-2>]].  Follow it up with an upscale, and the effects are stunning!

아래 그림과 같이 2.5( guidance )와 8( steps )의 Aetherverse-XL(아래 그림)과 같은 특수 모델 유형에 대한 자세한 사용 방법은 해당 모델에 대한 메모를 참조하세요.

VASS(SDXL만 해당)

Vass는 SDXL용 HDR mode 로, 구도를 개선하고 채도를 낮출 수도 있습니다. 어떤 사람들은 선호하지만 어떤 사람들은 선호하지 않을 수도 있습니다. 이미지가 너무 화려해 보인다면 리파이너 없이 사용해 보세요(NoFix).

이 이름은 SDXL 잠재 공간을 탐구해 온 독립 연구자 티모시 알렉시스 바스(Timothy Alexis Vass)의 이름에서 유래했습니다. 흥미로운 관찰을 한. 그의 목표는 색 보정과 images 의 콘텐츠를 개선하는 것입니다. 우리는 그가 게시한 코드를 PirateDiffusion 에서 실행되도록 조정했습니다.

/render a cool cat <sdxl> /vass

사용 이유와 시기 너무 노랗거나 중앙에서 벗어나거나 색상 범위가 제한적으로 느껴지는 SDXL images 에서 사용해 보세요. 더 선명하고 깔끔한 배경을 볼 수 있을 것입니다.

제한 사항: SDXL에서만 작동합니다. 

 
 

추가 도구(답장 명령)

더 보기 도구는 동일한 이미지의 변형을 생성합니다.

동일한 피사체를 약간 다르게 변형하여 보려면 더 보기 도구를 사용합니다. 

사진 설명

업데이트되었습니다! 이제 두 가지 설명 모드가 있습니다: 클립과 플로렌스2

컴퓨터 비전이 있는 이미지에서 설명하기를 사용하여 프롬프트를 생성하세요! "답장" 명령이므로 이미지와 대화하듯 마우스 오른쪽 버튼을 클릭하고 다음과 같이 작성합니다.

/describe /florence

Florence 매개변수를 추가하면 훨씬 더 자세한 프롬프트가 표시됩니다. 새로운 플로렌스2 컴퓨터 비전 모델을 사용합니다. /describe 자체적으로 CLIP 모델을 사용합니다.

내에서 위젯 실행 PirateDiffusion