Stable Diffusion Extras 탭 기능 요약

Stable Diffusion Extras 탭 기능 요약

Extras 탭은 Stable Diffusion에서 제공하는 다양한 이미지 처리 및 변환 기능을 한 곳에서 사용할 수 있도록 하는 공간입니다. 주요 기능들을 간략하게 요약해 드리겠습니다.

1. 이미지 처리 유형 선택:

  • 단일 이미지 (Single Image): 하나의 이미지를 업로드하고 원하는 처리를 수행합니다.
  • 일괄 처리 (Batch Process): 여러 이미지를 동시에 업로드하고 동일한 처리를 적용합니다.
  • 디렉토리에서 일괄 처리 (Batch from Directory): 특정 디렉토리에 있는 모든 이미지를 선택하여 일괄 처리합니다.

2. 이미지 향상 및 변형:

  • 업스케일 (Upscale): 이미지 해상도를 높여 선명하게 만들 수 있습니다. 다양한 업스케일러 모델 (Upscaler 1, Upscaler 2 등)을 선택하고 배율, 대상 해상도 등을 설정할 수 있습니다.
  • 크기 조정 (Resize): 이미지의 크기를 원하는 크기로 조절할 수 있습니다. 최대 변 크기를 설정하여 이미지의 가로 또는 세로 길이 제한을 설정할 수 있습니다.

3. 특수 처리 기능:

  • GFPGAN: 낮은 화질의 얼굴 사진을 복원하여 선명하게 만들 수 있습니다. (모든 이미지에 적용되는 것은 아니며, 사람 얼굴 이미지에 특화됨)
  • CodeFormer: 이미지 처리에 CodeFormer 모델을 사용하여 다양한 효과를 적용할 수 있습니다. (모델 및 설정에 따라 결과가 다를 수 있음)
  • 이미지 분할 (Split oversized images): 크기가 큰 이미지를 여러 개의 작은 이미지로 분할합니다.
  • 자동 초점 자르기 (Auto focal point crop): 사람 얼굴이나 중요한 객체에 초점을 맞추도록 이미지를 자동으로 자릅니다.
  • 자동 크기 조절 자르기 (Auto-sized crop): 사전 설정된 크기에 맞게 이미지를 자동으로 자릅니다.
  • 이미지 반전 생성 (Create flipped copies): 이미지를 좌우 반전된 복사본을 생성합니다.
  • 캡션 삽입 (Caption): 이미지에 텍스트 캡션을 삽입합니다.

4. 추가 설정:

  • 각 기능마다 제공되는 추가 설정을 조정하여 처리 결과를 원하는 대로 미세 조정할 수 있습니다.

5. 이미지 업로드 및 처리:

  • 이미지를 탭-앤-드롭 방식으로 업로드하거나, 파일 선택 버튼을 이용하여 업로드합니다.
  • “Generate” 버튼을 클릭하여 이미지 처리를 실행합니다.
  • 처리된 이미지는 탭 우측 하단의 폴더 및 갤러리 아이콘을 통해 확인 및 관리할 수 있습니다.

참고:

  • Extras 탭의 기능은 Stable Diffusion 버전과 사용되는 확장 프로그램에 따라 다를 수 있습니다.
  • 특정 기능 (예: GFPGAN, ReActor)은 베타 버전이거나 개발 중일 수 있으며, 변경될 수 있습니다.
  • 하드웨어 성능에 따라 이미지 처리 속도가 달라질 수 있습니다.
  • 이미지 처리 결과는 사용된 모델, 설정 및 원본 이미지의 품질에 따라 달라질 수 있습니다.

Stable Diffusion 로컬 설치 환경에서 검열 기능 간단 설정

Stable Diffusion 로컬 설치 환경에서 검열 기능 간단 설정

 

**주의:**

* 이 설명은 기본적인 개념을 제공하며, 실제 구현은 사용자의 환경 및 요구 사항에 따라 달라질 수 있습니다.
* 검열 시스템은 복잡한 기술적, 윤리적 문제를 야기할 수 있으므로 전문가의 도움을 받는 것이 좋습니다.

**1. 검열 옵션 추가:**

* Stable Diffusion 웹 UI 설정 파일 (`config.yaml`)을 편집합니다.
* `censoring`이라는 새 섹션을 추가하고 다음과 같은 옵션을 정의합니다.
* `enabled`: 검열 기능을 활성화/비활성화합니다. (기본값: False)
* `blocklist`: 금지된 단어나 문구 목록을 지정합니다. (예: [“폭력”, “혐오”, “인종차별”])
* `image_analysis`: 생성된 이미지에 대한 이미지 인식 검사를 활성화/비활성화합니다. (기본값: False)
* `image_analysis_model`: 이미지 인식 검사에 사용할 모델 경로를 지정합니다. (예: “/path/to/image_analysis_model.pb”)
* `custom_rules`: 사용자 정의 규칙을 지정하는 Python 스크립트 경로를 지정합니다. (선택 사항)

**예시:**

censoring:
enabled: True
blocklist:
– “폭력”
– “혐오”
– “인종차별”
image_analysis: True
image_analysis_model: “/path/to/image_analysis_model.pb”

**2. 검열 기능 구현:**

* `censoring` 섹션에서 정의된 옵션에 따라 검열 기능을 구현하는 Python 코드를 작성합니다.
* `blocklist`를 사용하여 텍스트 프롬프트를 검사하고 금지된 단어나 문구가 포함된 경우 프롬프트를 거부합니다.
* `image_analysis`가 True이고 `image_analysis_model` 경로가 지정된 경우 생성된 이미지를 이미지 인식 모델로 분석하고 부적절한 콘텐츠가 포함된 경우 이미지를 거부합니다.
* `custom_rules`가 지정된 경우 사용자 정의 규칙을 적용하여 텍스트 프롬프트 또는 생성된 이미지를 검사합니다.

**3. 웹 UI 다시 시작:**

* Stable Diffusion 웹 UI를 다시 시작하여 검열 기능을 적용합니다.

**4. 테스트 및 개선:**

* 다양한 프롬프트와 이미지를 사용하여 검열 기능을 테스트하고 필요에 따라 옵션과 코드를 조정합니다.

**참고:**

* 이미지 인식 모델은 완벽하지 않으므로 오류 발생 가능성이 있습니다.
* 사용자 정의 규칙은 특정 요구 사항에 맞게 작성해야 합니다.

Stable Diffusion의 Image Browser 탭 설명

Stable Diffusion의 Image Browser 탭 설명

Stable Diffusion의 Image Browser 탭은 로컬 저장소에 있는 생성된 이미지를 찾아보고 관리하는 데 사용됩니다.

**Image Browser 탭 구성:**

* **탐색 도구 (Navigation):**
* 페이지 이동 버튼: 첫 페이지, 이전 페이지, 페이지 번호 표시, 다음 페이지, 마지막 페이지 이동 버튼을 제공합니다.
* 삭제 버튼: 선택된 이미지를 삭제하거나 화면에 표시되지 않는 이미지도 함께 삭제하도록 설정할 수 있습니다.
* **검색 필터 (Search Filters):**
* 파일 이름 키워드 검색: 파일 이름을 기반으로 이미지 검색ができます.
* EXIF 키워드 검색: EXIF 데이터 (카메라 정보, 날짜 등)를 기반으로 이미지 검색이 가능합니다. (일부 이미지는 EXIF 데이터가 포함되지 않을 수 있음)
* **음의 프롬프트 없음 (No negative prompt):** “없음”으로 선택하면 음의 프롬프트를 사용하지 않고 생성된 이미지만 검색합니다. “예 (Yes)” 또는 “만 (Only)”으로 선택하면 음의 프롬프트를 사용하여 생성된 이미지를 필터링합니다.
* 대소문자 구분 (Case sensitive): 검색어 대소문자를 구분 여부를 설정합니다.
* 정규 표현식 (Regex): 검색어에 정규 표현식을 사용할 수 있습니다. (텍스트 처리에 대한 지식 필요)
* **랭킹 필터 (Ranking Filter):**
* 모든 이미지 (All): 생성된 모든 이미지를 표시합니다.
* 최소-최대 (Min-max): 최소 점수와 최대 점수를 설정하여 이미지를 필터링합니다. (이 选项 (선택지, option)을 활성화하려면 “최소-최대”를 선택해야 합니다.)
* **세대 정보 (Generation Info):**
* 파일 이름: 선택된 이미지의 파일 이름을 표시합니다.
* 폴더 아이콘: 이미지가 저장된 폴더를 여는 데 사용할 수 있습니다. (일부 시스템에서는 지원하지 않을 수 있음)

**Image Browser 탭의 활용:**

* 원하는 이미지를 빠르게 찾기 위해 파일 이름이나 EXIF 데이터를 기반으로 검색 필터를 사용할 수 있습니다.
* 음의 프롬프트 사용 여부에 따라 이미지를 필터링할 수 있습니다.
* 중요한 이미지는 즐겨찾기 목록에 추가하여 쉽게 찾을 수 있습니다. (즐겨찾기 기능은 현재 표시된 정보에서는 확인할 수 없지만 일부 확장 프로그램에서 제공될 수 있음)
* 이미지에 점수를 매겨 “랭킹 필터”를 사용하여 특정 범위의 점수를 가진 이미지만 볼 수 있습니다. (점수 매기기 기능은 별도로 구현되어야 함)

**참고:**

* Image Browser 탭의 기능은 Stable Diffusion 버전과 사용되는 확장 프로그램에 따라 다를 수 있습니다.
* 이미지 검색 속도는 이미지 파일의 총 개수와 하드웨어 성능에 따라 달라질 수 있습니다.

 

Stable Diffusion – 사용자 정의 이미지를 생성하는 기능 Dreambooth

Dreambooth는 Stable Diffusion 모델을 사용하여 사용자 정의 이미지를 생성하는 기능입니다. 기존 모델을 선택하거나 새로운 모델을 직접 생성하여 원하는 이미지 스타일을 학습하고 이미지 생성에 활용할 수 있습니다.

Dreambooth 주요 기능:

1. 모델 선택 및 생성:

Select: 이미 학습된 Dreambooth 모델 목록에서 원하는 모델을 선택합니다. 다양한 스타일의 모델들이 존재하며, 사용자의 선호에 따라 적합한 모델을 선택하는 것이 중요합니다.
Create: 새로운 Dreambooth 모델을 생성합니다. 텍스트 프롬프트와 이미지 샘플을 제공하여 원하는 이미지 스타일을 학습하는 모델을 만들 수 있습니다.
2. 설정 조정:

Settings: 모델 및 이미지 생성에 대한 다양한 설정을 조정할 수 있습니다.
이미지 크기: 생성할 이미지의 너비와 높이를 설정합니다.
학습률: 모델 학습 속도를 조절합니다. 낮은 학습률은 더 안정적인 학습 결과를 제공하지만 학습 속도가 느려질 수 있습니다.
반복 횟수: 모델 학습에 사용될 반복 횟수를 설정합니다. 더 많은 반복 횟수는 일반적으로 더 나은 결과를 제공하지만 더 많은 시간이 소요됩니다.
Show Advanced: 고급 사용자를 위한 추가 설정을 표시합니다.
초기화 방법: 모델 학습을 위한 초기 가중치를 설정하는 방법을 선택합니다.
손실 함수: 모델 학습 과정에서 사용될 손실 함수를 선택합니다.
3. 개념 설정:

Concepts: 이미지 생성에 사용될 개념을 정의합니다. 텍스트 프롬프트와 이미지 샘플을 사용하여 모델이 학습해야 할 주요 개념을 명확하게 전달하는 것이 중요합니다.
4. 매개변수 설정:

Parameters: 이미지 생성에 사용될 매개변수를 조정합니다.
강도: 생성된 이미지에 개념이 반영되는 강도를 설정합니다.
혼합: 여러 개념을 동시에 사용할 때 각 개념의 영향력을 조절합니다.
5. 리소스 관리:

Output: 생성된 이미지를 확인하고 저장할 수 있습니다.
Refresh: 리소스를 새로 고침하여 최신 학습 결과를 반영합니다.

Dreambooth 활용:

Dreambooth를 사용하여 다양한 이미지를 생성할 수 있습니다. 예를 들어, 특정 사람의 얼굴, 좋아하는 풍경, 추상적인 개념 등을 이미지로 만들 수 있습니다. 원하는 이미지를 얻기 위해서는 적절한 모델을 선택하고, 설정을 조정하며, 개념을 명확하게 정의하는 것이 중요합니다.

참고:

Dreambooth는 아직 개발 단계이며, 모든 상황에서 원하는 결과를 보장하지는 않습니다.
모델 학습에는 시간이 걸릴 수 있으며, 하드웨어 성능에 따라 속도가 달라질 수 있습니다.
Dreambooth를 사용하여 생성된 이미지는 저작권법에 따라 보호될 수 있습니다.

Stable Diffusion을 활용한 비디오 생성 – Deforum 활용

Stable Diffusion의 Deforum 탭 기능 및 옵션

**Deforum** 탭은 AUTOMATIC1111의 Stable Diffusion 웹 사용자 인터페이스(Web UI)용 확장 프로그램입니다 (버전 3.0, Git 커밋: 32242685). 이 확장 프로그램은 주로 **비디오 생성** 기능을 강화하도록 설계되었습니다.

**주의**: 현재 Stable Diffusion 자체는 비디오 생성을 기본적으로 지원하지 않습니다. Deforum과 같은 확장 프로그램은 이 기능을 구현하기 위해 실험적인 방법을 사용합니다.

**Deforum 탭의 잠재적인 기능 (확장 프로그램 문서 또는 소스 코드 확인 필요):**

* **모션 보간/워핑 (Motion Interpolation/Warping):** Deforum은 비디오 프레임 간의 매끄러운 전환을 위해 프레임 간 객체의 모양 변화를 제어하는 기능을 제공할 수 있습니다. 이를 통해 객체가 시간 경과에 따라 이동, 구부리기, 늘리기 등의 변형 효과를 만들 수 있습니다.
* **키프레임 (Keyframes):** Deforum은 비디오에서 특정 시간대에 객체의 위치 또는 상태를 정의하는 데 사용되는 키프레임 기능을 제공할 수 있습니다. 이를 통해 비디오 내 객체의 움직임을 더욱 세밀하게 제어할 수 있습니다.
* **객체 추적 (Object Tracking):** Deforum은 비디오 프레임 전체에서 객체를 추적하여 특정 객체에 변형을 적용하는 기능을 제공할 수 있습니다. 이를 통해 특정 객체만 변형되도록 만들 수 있습니다.

**일반적인 옵션 (다른 확장 프로그램과 유사할 수 있음):**

* **단계 (Steps):** 비디오 생성에 사용되는 반복 횟수를 설정합니다. 더 많은 단계는 일반적으로 더 높은 품질의 결과를 생성하지만 계산 시간도 늘어납니다.
* **너비 (Width) 및 높이 (Height):** 생성하려는 비디오 프레임의 해상도를 설정합니다.
* **시드 (Seed):** 랜덤 생성 결과에 영향을 미치는 값입니다. 음수 (-1) 값을 사용하면 랜덤 시드가 선택됩니다.
* **배치 이름 (Batch name):** 생성된 이미지가 저장될 폴더의 이름을 지정합니다.

**다른 옵션**:

* **얼굴 복원 (Restore faces):** 각 프레임에서 생성된 이미지에 얼굴 복원 기능을 적용합니다 (실험적인 기능).
* **타일링 (Tiling):** 각 생성된 이미지를 매끄럽게 연결합니다 (실험적인 기능).
* **소음 배수 (noise multiplier):** 특정 샘플러에 적용되는 노イズ 수준을 조정합니다.

**중요 참고 사항:**

* Deforum은 비교적 새로운 확장 프로그램이며 빠르게 개발되고 있습니다. 따라서 기능과 옵션은 앞으로 변경될 수 있습니다.
* Deforum은 실험적인 기능이며 항상 안정적으로 작동하거나 원하는 결과를 생성하지 않을 수도 있습니다.
* Deforum을 사용하려면 별도로 설치해야 합니다.

**결론적으로** Deforum 탭은 Stable Diffusion의 비디오 생성 기능을 강화하는 데 도움이 되는 실험적인 확장 프로그램입니다. Deforum을 사용하여 기본 Stable Diffusion 기능을 넘어서는 더욱 복잡한 비디오를 생성할 수 있습니다.

Stable Diffusion 모델 학습 예시

## Stable Diffusion 모델 학습 예시 (쉽게 설명)

**1. 준비**

* 컴퓨터에 Stable Diffusion 웹 UI를 설치합니다.
* 텍스트 프롬프트와 해당 이미지로 구성된 학습 데이터셋을 준비합니다. 예를 들어, “푸른 바다 위를 날아가는 고래”라는 텍스트 프롬프트와 해당 이미지를 포함하는 데이터셋을 준비할 수 있습니다.
* 학습 데이터셋을 Stable Diffusion 웹 UI에 업로드합니다.

**2. 임베딩 생성**

* **Name:** 임베딩 모델의 이름을 임의로 정합니다. 예를 들어, “my_embedding”이라고 합니다.
* **Initialization text:** 임베딩 모델을 초기화하는 데 사용할 텍스트를 입력합니다. 예를 들어, “나는 이미지를 생성하는 것을 배우고 싶습니다.”라고 입력합니다.
* **Number of vectors per token:** 각 토큰(단어)을 나타내는 벡터의 개수를 설정합니다. 512가 일반적인 값입니다.
* **Overwrite Old Embedding:** 기존 임베딩 모델이 있는 경우 덮어쓸지 여부를 선택합니다.

**3. 하이퍼네트워크 생성**

* **Modules:** 하이퍼네트워크의 레이어 수를 설정합니다. 8은 일반적인 값입니다.
* **Input:** 하이퍼네트워크의 입력 크기를 설정합니다. 학습 데이터셋의 이미지 크기와 일치해야 합니다.
* **Output:** 하이퍼네트워크의 출력 크기를 설정합니다. 생성하려는 이미지의 크기와 일치해야 합니다.
* **Enter hypernetwork layer structure:** 하이퍼네트워크의 레이어 구조를 직접 입력하거나 기본값을 사용합니다.
* **Select activation function of hypernetwork:** 하이퍼네트워크의 활성화 함수를 선택합니다. Swish 또는 Linear(none)이 일반적입니다.
* **Select Layer weights initialization:** 레이어 가중치 초기화 방법을 선택합니다. relu 계열: Kaiming, sigmoid 계열: Xavier, 기타: Normal이 일반적입니다.
* **Add layer normalization:** 레이어 정규화 사용 여부를 선택합니다.
* **Use dropout:** 드롭아웃 사용 여부를 선택합니다.
* **Enter hypernetwork Dropout structure:** 하이퍼네트워크의 드롭아웃 구조를 입력하거나 기본값을 사용합니다.
* **Overwrite Old Hypernetwork:** 기존 하이퍼네트워크가 있는 경우 덮어쓸지 여부를 선택합니다.

**4. 학습**

* **Train an embedding or Hypernetwork:** “Hypernetwork”를 선택합니다.
* **Learning rate:** 학습 속도를 설정합니다. 0.001이 일반적인 값입니다.
* **Gradient Clipping:** 그래디언트 클리핑 값을 설정합니다. 1.0이 일반적인 값입니다.
* **Batch size:** 한 번에 학습하는 데이터 샘플 수를 설정합니다. 16이 일반적인 값입니다.
* **Gradient accumulation steps:** 그래디언트 누적 단계 수를 설정합니다. 4이 일반적인 값입니다.
* **Max steps:** 최대 학습 단계 수를 설정합니다. 10000이 일반적인 값입니다.
* **Prompt template:** 텍스트 프롬프트 템플릿을 입력합니다. 예를 들어, “{prompt}를 이미지로 생성해주세요.”라고 입력합니다.
* **Width, Height:** 생성하려는 이미지의 너비와 높이를 설정합니다. 512×512가 일반적인 값입니다.

**5. 학습 진행**

* “Train” 버튼을 클릭하면 학습이 시작됩니다.
* 학습 진행 상황은 로그 창에 표시됩니다.
* 학습이 완료되면 생성된 이미지를 확인할 수 있습니다.

**주의:**

* 학습 과정은 시간이 많이 걸릴 수 있습니다.
* 학습 결과는 사용된 데이터셋과 학습 설정에 따라 달라집니다.
* 만족스러운 결과를 얻지 못할 경우, 학습 데이터셋 또는 학습 설정을 조정해 볼 수 있습니다.

 

**추가 팁:**

* Stable Diffusion 웹 UI에서 제공하는 다양한 트레인 옵션들

Stable Diffusion 학습 (Training) 옵션들

Stable Diffusion 학습 (Training) 설명

Stable Diffusion 학습은 텍스트 프롬프트를 기반으로 이미지를 생성하는 모델을 훈련하는 과정입니다. 이 과정은 여러 단계로 이루어지며, 다양한 옵션을 통해 세밀하게 조정할 수 있습니다.

**1. 학습 단계**

Stable Diffusion 학습은 크게 다음 세 단계로 구성됩니다.

**1.1 임베딩 생성 (Create embedding)**

이 단계에서는 텍스트 프롬프트를 숫자 벡터 (embedding)로 변환하는 모델을 훈련합니다. 이 벡터는 이미지 생성 과정에서 이미지의 내용을 결정하는 중요한 역할을 합니다.

**옵션:**

* **Name:** 임베딩 모델의 이름입니다.
* **Initialization text:** 텍스트 임베딩 모델을 초기화하는 데 사용되는 텍스트입니다.
* **Number of vectors per token:** 각 토큰(단어)을 나타내는 벡터의 개수입니다.
* **Overwrite Old Embedding:** 기존 임베딩 모델을 덮어쓸지 여부를 선택합니다.

**1.2 하이퍼네트워크 생성 (Create hypernetwork)**

이 단계에서는 실제 이미지를 생성하는 하이퍼네트워크를 훈련합니다. 하이퍼네트워크는 임베딩 벡터를 입력받아 단계적으로 잡음(noise)을 제거하면서 이미지를 생성합니다.

**옵션:**

* **Modules:** 하이퍼네트워크의 레이어 수입니다.
* **Input:** 하이퍼네트워크의 입력 크기입니다.
* **Output:** 하이퍼네트워크의 출력 크기입니다.
* **Enter hypernetwork layer structure:** 하이퍼네트워크의 레이어 구조를 직접 입력합니다.
* **Select activation function of hypernetwork:** 하이퍼네트워크의 활성화 함수를 선택합니다. (Swish/Linear(none) 권장)
* **Select Layer weights initialization:** 레이어 가중치 초기화 방법을 선택합니다. (relu 계열: Kaiming, sigmoid 계열: Xavier, 기타: Normal 권장)
* **Add layer normalization:** 레이어 정규화 사용 여부를 선택합니다.
* **Use dropout:** 드롭아웃 사용 여부를 선택합니다.
* **Enter hypernetwork Dropout structure:** 하이퍼네트워크의 드롭아웃 구조를 입력합니다. (0~0.35 사이 증가 시퀀스: 0, 0.05, 0.15 권장)
* **Overwrite Old Hypernetwork:** 기존 하이퍼네트워크를 덮어쓸지 여부를 선택합니다.

**1.3 학습 (Train)**

모델 전체를 학습 데이터셋으로 훈련합니다. 학습 데이터셋은 텍스트 프롬프트와 해당 이미지로 구성되어 있으며, 모델은 이 데이터를 기반으로 텍스트 프롬프트에서 이미지를 생성하는 능력을 향상시킵니다.

**옵션:**

* **Train an embedding or Hypernetwork:** 임베딩 모델 또는 하이퍼네트워크 중 어떤 것을 훈련할지 선택합니다.
* **Learning rate:** 학습 속도를 조절하는 하이퍼파라미터입니다.
* **Gradient Clipping:** 그래디언트 클리핑 값을 설정합니다.
* **Batch size:** 한 번에 학습하는 데이터 샘플 수입니다.
* **Gradient accumulation steps:** 그래디언트 누적 단계 수입니다.
* **Dataset directory:** 학습 데이터가 있는 디렉토리 경로입니다. 1:1 비율의 이미지와 텍스트 프롬프트 페어로 구성되어야 합니다.
* **Log directory:** 학습 로그를 저장할 디렉토리 경로입니다.
* **Prompt template:** 텍스트 프롬프트 템플릿입니다.
* **Width, Height:** 생성할 이미지의 너비와 높이입니다.
* **Do not resize images:** 이미지 크기를 조정하지 않을지 여부를 선택합니다.
* **Max steps:** 최대 학습 단계 수입니다.
* **Save options:** 학습 과정 중에 이미지와 임베딩 모델을 저장하는 옵션입니다.
* **Use PNG alpha channel as loss weight:** PNG 이미지의 알파 채널을 손실 함수의 가중치로 사용 여부를 선택합니다.
* **

Stable Diffusion 옵션 설명 – 확장(Extenstions)

Stable Diffusion web UI 확장 목록 설명

 

**확장 목록 설명**

 

Stable Diffusion web UI 확장 목록은 사용 가능한 확장과 각 확장에 대한 정보를 보여줍니다. 확장 목록은 다음과 같은 열로 구성됩니다.

* **확장 이름:** 확장의 이름입니다.
* **URL:** 확장 코드가 저장된 GitHub 저장소 링크입니다. 확장의 기능 및 사용 방법에 대한 자세한 정보를 찾을 수 있습니다.
* **브랜치:** 현재 설치된 확장 코드의 특정 개발 브랜치를 나타냅니다.
* **버전:** 설치된 확장의 버전 번호입니다.
* **날짜:** 확장 정보가 마지막으로 업데이트된 날짜와 시간을 표시합니다.
* **업데이트:** 확장 업데이트를 확인하거나 업데이트 상태와 관련된 정보가 표시될 수 있습니다. (하지만 모든 확장에 대해 “unknown”으로 표시되어 있습니다.)
* **LDSR/내장:** 확장이 Stable Diffusion web UI의 내장 기능인지 (“내장”으로 표시됨) 또는 별도의 확장인지 (“unknown”으로 표시됨)을 나타냅니다. LDSR은 확장 내의 특정 기능을 참조할 수 있습니다.

**확장 정보 예시**

* **openpose-editor:** 이 확장은 Stable Diffusion 인터페이스 내에서 포즈 편집과 관련된 것으로 보입니다. 2023년 10월에 업데이트되었습니다. (내장 여부 불명)
* **sd-dynamic-prompts:** 이미지 생성 중에 프롬프트를 동적으로 수정하는 것과 관련된 확장으로 보입니다. 2024년 4월에 업데이트되었습니다. (내장 여부 불명)
* **sd-webui-controlnet:** ControlNet 기능을 Stable Diffusion에 통합하는 데 사용될 수 있는 확장입니다. 2024년 4월에 업데이트되었습니다. (내장 여부 불명)

**확장 사용 방법**

1. Stable Diffusion web UI를 엽니다.
2. **확장** 탭을 클릭합니다.
3. 사용하려는 확장을 찾아 **활성화** 버튼을 클릭합니다.
4. 확장 설정을 사용자 지정하려면 확장 설정 페이지를 엽니다.

**주의:**

* 모든 확장이 모든 Stable Diffusion web UI 버전과 호환되는 것은 아닙니다. 확장을 설치하기 전에 호환성을 확인하십시오.
* 일부 확장은 추가 설정이나 구성이 필요할 수 있습니다. 확장 설정 페이지를 참조하십시오.
* 확장을 사용하면 예상치 못한 결과가 발생할 수 있습니다. 주의해서 사용하고 백업을 항상 유지하십시오.

**Stable Diffusion web UI 확장에 대한 자세한 내용은 다음 리소스를 참조하십시오.**

* Stable Diffusion web UI 문서: [https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Extensions](https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Extensions)
* Stable Diffusion web UI 커뮤니티: [https://www.reddit.com/r/StableDiffusion/](https://www.reddit.com/r/StableDiffusion/)

**도움이 되었기를 바랍니다!**

Stable Diffusion 옵션 설명 및 img2img 사용 방법

**Stable Diffusion 옵션 설명:**

1. **Generation**: 이미지 생성을 위한 옵션입니다. 생성된 이미지의 특성 및 결과를 조정하는 데 사용됩니다.

2. **Textual Inversion**: 텍스트를 입력으로 받아 해당 내용을 시각적인 이미지로 변환하는 옵션입니다. 텍스트를 시각적 이미지로 변환하는 과정에서 사용됩니다.

3. **Hypernetworks**: 하이퍼네트워크를 사용하여 모델의 가중치를 동적으로 조정하는 옵션입니다. 모델의 학습 및 생성 과정에서 사용됩니다.

4. **Checkpoints**: 모델의 학습 중간에 저장된 체크포인트를 로드하여 학습을 재개하거나 생성을 계속할 수 있게 해주는 옵션입니다.

5. **Lora**: 이미지 생성 과정에서 사용되는 LoRA(Linearly-organized Random Access) 알고리즘의 설정을 조정하는 옵션입니다.

6. **img2img**: 이미지를 이미지로 변환하는 작업에 사용되는 옵션입니다. 이미지 간의 변환을 수행합니다.

**img2img 사용 방법:**
– **Sketch**: 스케치 이미지를 생성하는 옵션입니다. 주어진 이미지를 스케치로 변환합니다.
– **Inpaint**: 이미지를 보정하는 옵션입니다. 손상된 이미지를 보정하거나 누락된 부분을 보완합니다.
– **Inpaint sketch**: 스케치를 보정하는 옵션입니다. 생성된 스케치 이미지를 보정합니다.
– **Inpaint upload**: 업로드된 이미지를 보정하는 옵션입니다. 업로드된 이미지를 보정합니다.

– **Resize mode**: 이미지의 크기를 조정하는 방법을 설정하는 옵션입니다. 크기를 조정하거나 잘라내거나 채우는 등의 방법을 선택할 수 있습니다.

– **Sampling method**: 이미지 생성에 사용되는 샘플링 방법을 설정하는 옵션입니다.

– **Schedule type**: 이미지 생성에 사용되는 스케줄 유형을 설정하는 옵션입니다. 생성 과정에서 사용되는 스케줄링 방법을 선택할 수 있습니다.

– **Sampling steps**: 이미지 생성에 사용되는 샘플링 단계의 수를 설정하는 옵션입니다.

– **Refiner**: 이미지 보정 과정에서 사용되는 옵션을 설정하는 부분입니다. 생성된 이미지의 품질을 더욱 향상시키는 역할을 합니다.

– **Batch count**: 한 번에 처리할 이미지의 수를 설정하는 옵션입니다.

– **Batch size**: 한 번에 처리할 배치의 크기를 설정하는 옵션입니다.

– **CFG Scale**: 이미지 생성에 사용되는 Conditional Focused Generation(CFG)의 스케일을 설정하는 옵션입니다.

– **Denoising strength**: 이미지 생성 과정에서 노이즈를 제거하는 강도를 설정하는 옵션입니다.

– **Seed**: 이미지 생성에 사용되는 시드 값을 설정하는 옵션입니다. 동일한 시드를 사용하면 항상 동일한 결과를 얻을 수 있습니다.

– **Extra**: 이미지 생성 과정에서 추가적으로 사용되는 동적 프롬프트 및 기타 옵션을 설정하는 부분입니다.

Stable Diffusion – LoRA(Linearly-organized Random Access)

LoRA(Linearly-organized Random Access)란 선형적으로 구성된 무작위 접근을 의미합니다. 이것은 이미지 생성 및 처리과정에서 사용되는 알고리즘의 한 종류로, 이미지의 여러 부분을 순차적으로 접근하면서 무작위로 선택된 부분을 처리하는 방식을 나타냅니다. 간단히 말해, 이미지를 선형적으로 조각내고 그 중에서 무작위로 선택하여 처리하는 방법을 의미합니다.