A A
[DL] Finetuning (νŒŒμΈνŠœλ‹)
μ΄λ²ˆμ—λŠ” Fine-Tuning (νŒŒμΈνŠœλ‹)에 λ°ν•˜μ—¬ ν•œλ²ˆ μ•Œμ•„λ³΄κ² μŠ΅λ‹ˆλ‹€.

 

νŒŒμΈνŠœλ‹(Finetuning)은 λ”₯λŸ¬λ‹κ³Ό LLM λͺ¨λ‘μ—μ„œ 널리 μ‚¬μš©λ˜λŠ” λ°©λ²•λ‘ μœΌλ‘œ, 이미 사전 ν•™μŠ΅λœ λͺ¨λΈμ„ νŠΉμ • μž‘μ—…μ— 맞게 μΆ”κ°€ ν•™μŠ΅μ‹œν‚€λŠ” 과정을 μ˜λ―Έν•©λ‹ˆλ‹€. νŒŒμΈνŠœλ‹μ€ 기본적으둜 λ™μΌν•œ 원리λ₯Ό κ³΅μœ ν•©λ‹ˆλ‹€.

 

Fine-Tuning? 

 

Fine-Tuning(νŒŒμΈνŠœλ‹)은 사전 ν•™μŠ΅(Pre-training)된 λͺ¨λΈμ„ νŠΉμ •ν•œ μž‘μ—…μ— 맞게 μΆ”κ°€λ‘œ ν•™μŠ΅ν•˜λŠ” κ³Όμ •μž…λ‹ˆλ‹€.

사전 ν•™μŠ΅ λ‹¨κ³„μ—μ„œλŠ” λͺ¨λΈμ΄ 일반적인 νŒ¨ν„΄μ„ ν•™μŠ΅ν•˜κ³ , νŒŒμΈνŠœλ‹ λ‹¨κ³„μ—μ„œλŠ” 이 λͺ¨λΈμ„ νŠΉμ •ν•œ λͺ©μ μ— 맞좰 μ΅œμ ν™”ν•©λ‹ˆλ‹€.

이미 사전 ν•™μŠ΅μ„ 톡해 ν•™μŠ΅λœ λͺ¨λΈμ˜ 일반적인 지식을 ν™œμš©ν•˜μ—¬, μƒˆλ‘œμš΄ μž‘μ—…μ΄λ‚˜ 데이터셋에 λΉ λ₯΄κ²Œ μ μ‘ν•˜λŠ” 것이 λͺ©ν‘œμž…λ‹ˆλ‹€.


Pre-Training vs Fine-Tuning

그러면 Fine-Tuning에 λ°ν•˜μ—¬ μ•Œμ•„λ³΄μ•˜μœΌλ‹ˆ, Pre-Training(μ‚¬μ „ν•™μŠ΅)과의 차이점을 ν•œλ²ˆ λ³΄κ² μŠ΅λ‹ˆλ‹€.

Pre-training (μ‚¬μ „ν•™μŠ΅)

λ”₯λŸ¬λ‹ 및 LLM 곡톡점

  • 맀우 큰 규λͺ¨μ˜ 데이터셋을 μ‚¬μš©ν•˜μ—¬ λͺ¨λΈμ΄ λ‹€μ–‘ν•œ νŒ¨ν„΄, ꡬ쑰, νŠΉμ§•μ„ ν•™μŠ΅ν•˜λŠ” λ‹¨κ³„μž…λ‹ˆλ‹€.
  • 이미지, ν…μŠ€νŠΈ λ“± λ‹€μ–‘ν•œ 데이터 νƒ€μž…μ— λŒ€ν•΄ 일반적인 ν‘œν˜„μ„ ν•™μŠ΅ν•©λ‹ˆλ‹€.

λ”₯λŸ¬λ‹

  • 이미지 λΆ„λ₯˜λ₯Ό μœ„ν•œ CNN, 물체 인식을 μœ„ν•œ R-CNN λ“±μ—μ„œ 이미지넷(ImageNet) 같은 λŒ€κ·œλͺ¨ 데이터셋을 μ‚¬μš©ν•˜μ—¬ 기본적인 μ‹œκ°μ  νŠΉμ§•μ„ ν•™μŠ΅ν•©λ‹ˆλ‹€.

LLM

  • μˆ˜μ‹­μ–΅ 개의 λ‹¨μ–΄λ‘œ 이루어진 λŒ€κ·œλͺ¨ ν…μŠ€νŠΈ 데이터셋을 μ‚¬μš©ν•˜μ—¬ μ–Έμ–΄μ˜ 일반적인 ꡬ쑰와 ν‘œν˜„μ„ ν•™μŠ΅ν•©λ‹ˆλ‹€.

 

Finetuning (νŒŒμΈνŠœλ‹)

λ”₯λŸ¬λ‹ 및 LLM 곡톡점

  • 사전 ν•™μŠ΅λœ λͺ¨λΈμ„ νŠΉμ • μž‘μ—…μ— 맞게 μΆ”κ°€ ν•™μŠ΅μ‹œν‚€λŠ” λ‹¨κ³„μž…λ‹ˆλ‹€.
  • νŠΉμ • μž‘μ—…μ— λŒ€ν•œ 데이터셋을 μ‚¬μš©ν•˜μ—¬ λͺ¨λΈμ˜ κ°€μ€‘μΉ˜λ₯Ό μ‘°μ •ν•˜λ©°, 사전 ν•™μŠ΅μ—μ„œ 배운 일반적인 νŒ¨ν„΄μ„ νŠΉμ •ν•œ 문제둜 μ„Έλ°€ν•˜κ²Œ μ‘°μ •ν•©λ‹ˆλ‹€.

λ”₯λŸ¬λ‹

  • 사전 ν•™μŠ΅λœ 이미지 λΆ„λ₯˜ λͺ¨λΈμ„ νŠΉμ • 도메인(예: 의료 이미지 진단)에 맞게 νŒŒμΈνŠœλ‹ν•˜μ—¬ ν•΄λ‹Ή λΆ„μ•Όμ—μ„œμ˜ 정확도λ₯Ό ν–₯μƒμ‹œν‚΅λ‹ˆλ‹€.

LLM

  • 사전 ν•™μŠ΅λœ μ–Έμ–΄ λͺ¨λΈμ„ 감정 뢄석, λ²ˆμ—­, 질문 응닡 λ“±μ˜ μž‘μ—…μ— 맞게 νŒŒμΈνŠœλ‹ν•˜μ—¬ ν•΄λ‹Ή μž‘μ—…μ—μ„œμ˜ μ„±λŠ₯을 λ†’μž…λ‹ˆλ‹€.

Fine-Tuning(νŒŒμΈνŠœλ‹)의 ν•„μš”μ„±

그러면 AI Model에 μ™œ Fine-Tuning(νŒŒμΈνŠœλ‹)이 ν•„μš”ν• κΉŒμš”?
  • 사전 ν•™μŠ΅λœ λͺ¨λΈμ€ 이미 μΆ©λΆ„ν•œ 일반적인 νŒ¨ν„΄μ„ ν•™μŠ΅ν–ˆκΈ° λ•Œλ¬Έμ—, νŒŒμΈνŠœλ‹μ€ μƒλŒ€μ μœΌλ‘œ 적은 μ–‘μ˜ λ°μ΄ν„°λ‘œλ„ 높은 μ„±λŠ₯을 λ°œνœ˜ν•  수 μžˆμŠ΅λ‹ˆλ‹€. μ΄λŠ” λ”₯λŸ¬λ‹κ³Ό LLM λͺ¨λ‘μ— μ μš©λ©λ‹ˆλ‹€.
  • Pre-Training(사전 ν•™μŠ΅)λ‹¨κ³„μ—λŠ” λŒ€κ·œλͺ¨ 데이터와 μ»΄ν“¨νŒ… μžμ›μ΄ ν•„μš”ν•˜μ§€λ§Œ, Fine-Tuning(νŒŒμΈνŠœλ‹)은 μƒλŒ€μ μœΌλ‘œ 적은 μžμ›μœΌλ‘œ μˆ˜ν–‰ν•  수 μžˆμŠ΅λ‹ˆλ‹€.
  • λͺ¨λΈμ΄ 이미 ν•™μŠ΅ν•œ 지식을 νŠΉμ • μž‘μ—…μœΌλ‘œ 전이(transfer)ν•˜μ—¬ λΉ λ₯΄κ²Œ μˆ˜λ ΄ν•˜κ³  쒋은 μ„±λŠ₯을 달성할 수 μžˆμŠ΅λ‹ˆλ‹€.

Fine-Tuning(νŒŒμΈνŠœλ‹)의 μž₯단점

그러면 Fine-Tuning(νŒŒμΈνŠœνŒ…)의 ν•„μš”μ„±μ„ μ•Œμ•˜μœΌλ©΄ μž₯단점에 λ°ν•˜μ—¬ μ•Œμ•„λ³ΌκΉŒμš”?

μž₯점

  • 높은 μ„±λŠ₯: νŠΉμ • μž‘μ—…μ— μ΅œμ ν™”λœ μ„±λŠ₯을 μ œκ³΅ν•©λ‹ˆλ‹€. μ΄λŠ” λ”₯λŸ¬λ‹μ—μ„œ 이미지 λΆ„λ₯˜, LLMμ—μ„œ ν…μŠ€νŠΈ 생성 λ“±μ—μ„œ λͺ¨λ‘ μ μš©λ©λ‹ˆλ‹€.
  • 적은 데이터 및 μžμ›: νŒŒμΈνŠœλ‹μ€ μƒλŒ€μ μœΌλ‘œ 적은 데이터와 μžμ›μœΌλ‘œλ„ 쒋은 μ„±λŠ₯을 λ‚Ό 수 μžˆμŠ΅λ‹ˆλ‹€.
  • λΉ λ₯Έ ν•™μŠ΅ 속도: 전이 ν•™μŠ΅μ„ 톡해 λΉ λ₯Έ 수렴 속도λ₯Ό 얻을 수 μžˆμŠ΅λ‹ˆλ‹€.

단점

  • 데이터셋 ν’ˆμ§ˆ: 잘λͺ»λœ λ°μ΄ν„°μ…‹μœΌλ‘œ νŒŒμΈνŠœλ‹μ„ μˆ˜ν–‰ν•˜λ©΄ λͺ¨λΈμ˜ μ„±λŠ₯이 μ €ν•˜λ  수 μžˆμŠ΅λ‹ˆλ‹€.
  • 과적합(Overfitting): νŒŒμΈνŠœλ‹ μ‹œ κ³Όμ ν•©μ˜ μœ„ν—˜μ΄ 있으며, 이둜 인해 λͺ¨λΈμ˜ μΌλ°˜ν™” λŠ₯λ ₯이 λ–¨μ–΄μ§ˆ 수 μžˆμŠ΅λ‹ˆλ‹€.
  • 지식 손상: νŒŒμΈνŠœλ‹ κ³Όμ •μ—μ„œ λͺ¨λΈμ΄ μ›λž˜ ν•™μŠ΅ν•œ 일반적인 지식을 μžƒμ„ 수 μžˆμŠ΅λ‹ˆλ‹€.

λ‹€μ–‘ν•œ Fine-Tuning(νŒŒμΈνŠœλ‹) 방법

Fine-Tuning(νŒŒμΈνŠœλ‹)μ—λŠ” λ‹€μ–‘ν•œ 방법이 μžˆμŠ΅λ‹ˆλ‹€. ν•œλ²ˆ μ•Œμ•„λ³ΌκΉŒμš”?

Instruction Fine-Tuning (LLM 쀑심)

  • LLM: λͺ¨λΈμ—κ²Œ νŠΉμ • μž‘μ—…μ΄λ‚˜ λͺ©ν‘œλ₯Ό λͺ…ν™•ν•˜κ²Œ μ§€μ‹œ(Instruction)ν•˜μ—¬ ν•™μŠ΅μ„ μœ λ„ν•˜λŠ” λ°©λ²•μž…λ‹ˆλ‹€. "λ‹€μŒ λ¬Έμž₯을 λ²ˆμ—­ν•˜μ‹œμ˜€"와 같은 λͺ…ν™•ν•œ μ§€μ‹œλ₯Ό ν¬ν•¨ν•œ 데이터셋을 μ‚¬μš©ν•©λ‹ˆλ‹€.

Full Fine-Tuning (곡톡)

  • λ”₯λŸ¬λ‹ 및 LLM: 사전 ν•™μŠ΅λœ λͺ¨λΈ 전체λ₯Ό νŠΉμ • μž‘μ—…μ˜ λ°μ΄ν„°μ…‹μœΌλ‘œ ν•™μŠ΅μ‹œν‚€λŠ” λ°©λ²•μž…λ‹ˆλ‹€. λͺ¨λΈμ˜ λͺ¨λ“  νŒŒλΌλ―Έν„°λ₯Ό μ‘°μ •ν•˜μ—¬ μž‘μ—…μ— 맞게 μ΅œμ ν™”ν•©λ‹ˆλ‹€.

Parameter-Efficient Fine-Tuning (PEFT)

  • 곡톡: λͺ¨λΈμ˜ 일뢀 νŒŒλΌλ―Έν„°λ§Œ μ‘°μ •ν•˜μ—¬ ν•™μŠ΅ λΉ„μš©κ³Ό μ‹œκ°„μ„ μ€„μ΄λŠ” λ°©λ²•μž…λ‹ˆλ‹€. μ£Όμš” λ ˆμ΄μ–΄λ‚˜ νŠΉμ • νŒŒλΌλ―Έν„°λ§Œ μ‘°μ •ν•˜κ³  λ‚˜λ¨Έμ§€λŠ” κ³ μ •ν•©λ‹ˆλ‹€.
  • LLM: PEFTλ₯Ό 톡해 λŒ€κ·œλͺ¨ μ–Έμ–΄ λͺ¨λΈμ—μ„œ νŠΉμ • μž‘μ—…μ„ 더 효율적으둜 μˆ˜ν–‰ν•©λ‹ˆλ‹€.

Supervised Fine-tuning (SFT)

  • 곡톡: 지도 ν•™μŠ΅μ„ 톡해 λͺ¨λΈμ„ νŠΉμ • μž‘μ—…μ— 맞게 ν•™μŠ΅μ‹œν‚€λŠ” λ°©λ²•μž…λ‹ˆλ‹€. 라벨링된 데이터셋을 μ‚¬μš©ν•˜μ—¬ ν•™μŠ΅μ„ μ§„ν–‰ν•©λ‹ˆλ‹€.

LLM이 μš”κ΅¬ν•˜λŠ” VRAM (λΉ„λ””μ˜€ λ©”λͺ¨λ¦¬)

λŒ€κ·œλͺ¨ μ–Έμ–΄ λͺ¨λΈ(LLM)은 ν•™μŠ΅, νŒŒμΈνŠœλ‹, μΆ”λ‘ (Inference) λ‹¨κ³„μ—μ„œ λ§Žμ€ μ–‘μ˜ VRAM을 μš”κ΅¬ν•©λ‹ˆλ‹€.

각 λ‹¨κ³„μ—μ„œ ν•„μš”ν•œ VRAM μš©λŸ‰μ€ μ—¬λŸ¬ μš”μΈμ— μ˜ν•΄ κ²°μ •λ©λ‹ˆλ‹€.

λ‹€μŒμ€ 각 λ‹¨κ³„μ—μ„œ VRAM μš”κ΅¬ 사항에 영ν–₯을 λ―ΈμΉ˜λŠ” μ£Όμš” μš”μ†Œλ“€μž…λ‹ˆλ‹€.

 

Training (ν•™μŠ΅ 단계)

  • μš”κ΅¬ 사항: ν•™μŠ΅ λ‹¨κ³„μ—μ„œλŠ” κ°€μž₯ λ§Žμ€ VRAM이 ν•„μš”ν•©λ‹ˆλ‹€. λͺ¨λΈμ˜ νŒŒλΌλ―Έν„° 수, λ°μ΄ν„°μ…‹μ˜ 크기, 배치 크기, μ‹œν€€μŠ€ 길이, κ·ΈλΌλ””μ–ΈνŠΈ 및 μ˜΅ν‹°λ§ˆμ΄μ € μƒνƒœ 등이 VRAM μ‚¬μš©λŸ‰μ„ κ²°μ •ν•©λ‹ˆλ‹€.
  • μ£Όμš” μš”μ†Œ:
    • 데이터셋 크기: ν•™μŠ΅ 데이터셋이 클수둝 더 λ§Žμ€ VRAM이 ν•„μš”ν•©λ‹ˆλ‹€. 특히 배치(batch) λ‹¨μœ„λ‘œ 데이터λ₯Ό μ²˜λ¦¬ν•˜κΈ° λ•Œλ¬Έμ—, 배치 크기(batch size)에 따라 ν•„μš”ν•œ VRAM이 μ¦κ°€ν•©λ‹ˆλ‹€.
    • 배치 크기: ν•œ λ²ˆμ— μ²˜λ¦¬ν•˜λŠ” λ°μ΄ν„°μ˜ 개수λ₯Ό μ˜λ―Έν•˜λ©°, 배치 크기가 클수둝 λ©”λͺ¨λ¦¬ μ‚¬μš©λŸ‰μ΄ μ¦κ°€ν•©λ‹ˆλ‹€.
    • μ‹œν€€μŠ€ 길이: λͺ¨λΈμ΄ ν•œ λ²ˆμ— μ²˜λ¦¬ν•˜λŠ” μž…λ ₯ μ‹œν€€μŠ€μ˜ 길이둜, μ‹œν€€μŠ€ 길이가 길수둝 VRAM μ‚¬μš©λŸ‰μ΄ μ¦κ°€ν•©λ‹ˆλ‹€.
    • λͺ¨λΈ νŒŒλΌλ―Έν„°: λͺ¨λΈμ˜ 크기, 즉 νŒŒλΌλ―Έν„°μ˜ μˆ˜κ°€ λ§Žμ„μˆ˜λ‘ VRAM이 더 많이 ν•„μš”ν•©λ‹ˆλ‹€. GPT-3와 같은 λŒ€κ·œλͺ¨ λͺ¨λΈμ€ μˆ˜μ‹­μ–΅ 개의 νŒŒλΌλ―Έν„°λ₯Ό 가지며, 이 νŒŒλΌλ―Έν„°λ“€μ„ ν•™μŠ΅ν•˜κ³  μ—…λ°μ΄νŠΈν•˜κΈ° μœ„ν•΄ λŒ€λŸ‰μ˜ VRAM이 ν•„μš”ν•©λ‹ˆλ‹€.
    • κ·ΈλΌλ””μ–ΈνŠΈ 및 μ˜΅ν‹°λ§ˆμ΄μ € μƒνƒœ: ν•™μŠ΅ μ€‘μ—λŠ” κ·ΈλΌλ””μ–ΈνŠΈ 계산 및 μ˜΅ν‹°λ§ˆμ΄μ € μƒνƒœλ₯Ό μ €μž₯ν•΄μ•Ό ν•˜λ―€λ‘œ, 이 뢀뢄도 좔가적인 VRAM을 μš”κ΅¬ν•©λ‹ˆλ‹€.

 

Fine-tuning (νŒŒμΈνŠœλ‹ 단계)

  • μš”κ΅¬ 사항: νŒŒμΈνŠœλ‹ λ‹¨κ³„μ—μ„œλŠ” 전체 ν•™μŠ΅μ— λΉ„ν•΄ 적은 VRAM이 ν•„μš”ν•˜μ§€λ§Œ, μ—¬μ „νžˆ μƒλ‹Ήν•œ μ–‘μ˜ λ©”λͺ¨λ¦¬λ₯Ό μš”κ΅¬ν•©λ‹ˆλ‹€. νŒŒμΈνŠœλ‹μ€ 사전 ν•™μŠ΅λœ λͺ¨λΈμ„ νŠΉμ • μž‘μ—…μ— 맞게 μ‘°μ •ν•˜λŠ” κ³Όμ •μ΄λ―€λ‘œ, λͺ¨λΈμ˜ 크기와 κ·ΈλΌλ””μ–ΈνŠΈ 및 μ˜΅ν‹°λ§ˆμ΄μ € μƒνƒœμ— 따라 VRAM μš”κ΅¬ 사항이 κ²°μ •λ©λ‹ˆλ‹€.
  • μ£Όμš” μš”μ†Œ:
    • λͺ¨λΈ 크기: νŒŒμΈνŠœλ‹ν•˜λ €λŠ” λͺ¨λΈμ˜ 크기가 클수둝 더 λ§Žμ€ VRAM이 ν•„μš”ν•©λ‹ˆλ‹€. GPT-3와 같은 λŒ€κ·œλͺ¨ λͺ¨λΈμ„ νŒŒμΈνŠœλ‹ν•  λ•ŒλŠ” μ—¬μ „νžˆ λ§Žμ€ VRAM이 μš”κ΅¬λ©λ‹ˆλ‹€.
    • κ·ΈλΌλ””μ–ΈνŠΈ 및 μ˜΅ν‹°λ§ˆμ΄μ € μƒνƒœ: ν•™μŠ΅ 단계와 λ§ˆμ°¬κ°€μ§€λ‘œ νŒŒμΈνŠœλ‹ μ‹œμ—λ„ κ·ΈλΌλ””μ–ΈνŠΈ 계산과 μ˜΅ν‹°λ§ˆμ΄μ € μƒνƒœλ₯Ό μ €μž₯ν•΄μ•Ό ν•©λ‹ˆλ‹€.
    • PEFT (Parameter-Efficient Fine-Tuning): PEFT와 같은 νŠΉμ • νŒŒμΈνŠœλ‹ 방법을 μ‚¬μš©ν•˜λ©΄ λͺ¨λΈμ˜ 일뢀 νŒŒλΌλ―Έν„°λ§Œ μ‘°μ •ν•˜μ—¬ VRAM μ‚¬μš©λŸ‰μ„ 쀄일 수 μžˆμŠ΅λ‹ˆλ‹€. 예λ₯Ό λ“€μ–΄, 전체 λͺ¨λΈμ„ νŒŒμΈνŠœλ‹ν•˜λŠ” λŒ€μ‹ , νŠΉμ • λ ˆμ΄μ–΄λ‚˜ νŒŒλΌλ―Έν„°λ§Œ μ‘°μ •ν•˜μ—¬ λ©”λͺ¨λ¦¬ μš”κ΅¬ 사항을 μ΅œμ ν™”ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

 

Inference (μΆ”λ‘  단계)

  • μš”κ΅¬ 사항: μΆ”λ‘  λ‹¨κ³„μ—μ„œλŠ” ν•™μŠ΅ 단계보닀 적은 VRAM이 ν•„μš”ν•˜μ§€λ§Œ, μ—¬μ „νžˆ λͺ¨λΈμ˜ 크기와 μž…λ ₯ 데이터에 따라 μƒλ‹Ήν•œ VRAM이 ν•„μš”ν•  수 μžˆμŠ΅λ‹ˆλ‹€. 이 λ‹¨κ³„μ—μ„œλŠ” λͺ¨λΈμ΄ 주어진 μž…λ ₯에 λŒ€ν•΄ μ˜ˆμΈ‘μ„ μƒμ„±ν•˜κΈ° μœ„ν•œ 연산을 μˆ˜ν–‰ν•©λ‹ˆλ‹€.
  • μ£Όμš” μš”μ†Œ:
    • λͺ¨λΈ 크기: μΆ”λ‘  μ‹œμ—λŠ” λͺ¨λΈ νŒŒλΌλ―Έν„°λ₯Ό λ‘œλ“œν•˜μ—¬ λ©”λͺ¨λ¦¬μ— μœ μ§€ν•΄μ•Ό ν•©λ‹ˆλ‹€. λͺ¨λΈμ΄ 클수둝 더 λ§Žμ€ VRAM이 ν•„μš”ν•©λ‹ˆλ‹€.
    • 배치 크기: μΆ”λ‘  λ‹¨κ³„μ—μ„œλ„ 배치 처리λ₯Ό μ‚¬μš©ν•  수 있으며, ν•œ λ²ˆμ— μ²˜λ¦¬ν•˜λŠ” μž…λ ₯의 κ°œμˆ˜μ— 따라 VRAM μ‚¬μš©λŸ‰μ΄ λ‹¬λΌμ§‘λ‹ˆλ‹€.
    • μ‹œν€€μŠ€ 길이: μž…λ ₯ μ‹œν€€μŠ€μ˜ 길이가 길수둝 μΆ”λ‘  μ‹œ ν•„μš”ν•œ VRAM이 μ¦κ°€ν•©λ‹ˆλ‹€. 특히, μ–Έμ–΄ λͺ¨λΈμ˜ 경우 μž…λ ₯ λ¬Έμž₯의 길이에 따라 λ©”λͺ¨λ¦¬ μ‚¬μš©λŸ‰μ΄ λ‹¬λΌμ§‘λ‹ˆλ‹€.

 

Training: κ°€μž₯ λ§Žμ€ VRAM을 μš”κ΅¬ν•˜λ©°, λͺ¨λΈ νŒŒλΌλ―Έν„° 수, 배치 크기, μ‹œν€€μŠ€ 길이, κ·ΈλΌλ””μ–ΈνŠΈ 및 μ˜΅ν‹°λ§ˆμ΄μ € μƒνƒœμ— μ˜ν•΄ VRAM μ‚¬μš©λŸ‰μ΄ κ²°μ •λ©λ‹ˆλ‹€.
Finetuning: ν•™μŠ΅λ³΄λ‹€λŠ” 적은 VRAM이 ν•„μš”ν•˜μ§€λ§Œ, μ—¬μ „νžˆ μƒλ‹Ήν•œ μš©λŸ‰μ΄ μš”κ΅¬λ©λ‹ˆλ‹€. PEFT와 같은 방법을 톡해 VRAM μš”κ΅¬ 사항을 쀄일 수 μžˆμŠ΅λ‹ˆλ‹€.
Inference: ν•™μŠ΅κ³Ό νŒŒμΈνŠœλ‹ λ‹¨κ³„λ³΄λ‹€λŠ” 적은 VRAM이 ν•„μš”ν•˜μ§€λ§Œ, λͺ¨λΈ 크기와 배치 크기, μ‹œν€€μŠ€ 길이에 따라 VRAM μ‚¬μš©λŸ‰μ΄ λ‹¬λΌμ§‘λ‹ˆλ‹€.