1 Fine-Tuning의 개념
1.1 Fine-Tuning이란?
Fine-Tuning(파인 튜닝, 미세 조정)은 사전 학습된 인공지능(AI) 모델을 특정한 목적에 맞게 추가 학습하는 과정입니다. 이 과정에서는 기존에 학습된 모델을 그대로 사용하는 것이 아니라, 새로운 데이터를 활용하여 모델의 일부 또는 전체를 조정함으로써 성능을 향상시킵니다. Fine-Tuning을 수행하면 특정한 산업, 기업, 또는 애플리케이션에 맞춘 모델을 만들 수 있습니다. 예를 들어, 일반적인 대화형 AI 모델이 존재한다고 가정할 때, 이를 의료 상담, 법률 문서 요약, 또는 고객 서비스 자동화 등 특정 목적에 최적화하는 것이 Fine-Tuning입니다. Fine-Tuning은 기존에 학습된 모델을 완전히 처음부터 다시 학습하는 것이 아니라, 기존 모델이 가지고 있는 지식을 활용하여 필요한 부분만 새롭게 조정하는 방식입니다. 따라서 완전한 재학습보다 더 적은 데이터와 적은 연산 비용으로도 성능을 향상시킬 수 있습니다.
앞서 배운 프롬프트 엔지니어링과 RAG도 특정 작업에 맞춰 AI의 출력을 조정할 수 있지만, Fine-Tuning은 모델 자체를 수정하여 특정 도메인과 작업에 최적화한다는 점에서 차이가 있습니다.
RAG는 검색결과를 프롬프트에 추가하여 LLM이 응답 생성 시 참고 할 수 있도록 하는 방식이고, Fine Tuning은 모델의 파라미터를 재학습하여 AI의 동작 자체를 변화시키는 방식입니다.
1.2 Fine-Tuning의 활용 목적
Fine-Tuning은 모든 상황에서 반드시 필요한 것은 아니지만, 특정한 목적을 위해 활용하면 모델의 성능을 더욱 최적화할 수 있는 강력한 방법입니다.
(1) 특정 도메인에 최적화된 모델 구축
일반적인 AI 모델은 광범위한 데이터를 학습하여 다양한 상황에서 작동할 수 있도록 만들어집니다. 하지만 특정한 산업이나 조직에서 사용할 경우, 일반 모델만으로는 충분한 성능을 발휘하기 어렵습니다. 예를 들어, 의료 분야에서 AI를 활용하여 진단을 내리는 경우, 일반적인 언어 모델보다 Fine-Tuning을 통해 의료 논문, 환자 기록, 의학적 지식을 학습한 모델이 훨씬 더 정확한 결과를 제공할 수 있습니다.
(2) 특정 작업(Task)성능 개선
AI 모델은 기본적으로 다양한 작업을 수행할 수 있지만, 특정한 작업(예: 법률 문서 요약, 감정 분석, 코드 생성 등)에 최적화되지 않았을 수 있습니다. Fine-Tuning을 통해 특정 작업을 더 잘 수행하도록 모델을 조정할 수 있습니다. 예를 들어,
고객 상담 챗봇은 고객 응대 방식에 맞게 Fine-Tuning이 필요합니다. 번역 모델은 특정 언어 쌍(예: 한국어-프랑스어)에 특화하여 학습할 수 있습니다. 문서 요약 모델은 특정한 문서 유형(예: 계약서, 논문 등)에 맞춰 Fine-Tuning할 수 있습니다. (3) 모델의 정확성과 일관성 향상
Fine-Tuning을 하면 AI 모델이 특정한 도메인이나 업무에 최적화되어 더 정확하고 일관된 결과를 생성할 수 있습니다. 기존의 사전 학습된 모델은 일반적인 지식을 바탕으로 답변을 생성하지만, 특정 기업의 내부 기준이나 전문적인 용어, 문서 형식을 반영하는 데 한계가 있을 수 있습니다. Fine-Tuning을 수행하면 이러한 특정 데이터를 학습하여 보다 일관성 있는 결과를 제공하고, 특정 작업의 성능을 향상시킬 수 있습니다. 예를 들어, 금융 데이터를 활용한 신용 평가 AI 모델을 만들고자 할 경우, Fine-Tuning을 통해 해당 기업의 내부 평가 기준과 과거 데이터를 학습시킬 수 있습니다. 이를 통해 기업의 정책에 맞는 보다 정밀한 신용 평가가 가능해집니다.
2 Fine-Tuning의 핵심 요소
Fine-Tuning을 효과적으로 수행하기 위해서는 적절한 접근 방식과 데이터 준비, 학습 설정 등이 필요합니다. Fine-Tuning의 성공 여부는 어떤 데이터를 사용하고, 어떤 방법으로 학습하며, 하이퍼파라미터를 어떻게 조정하는지에 따라 크게 달라집니다.
2.1 전이 학습(Transfer Learning)과 Fine-Tuning의 관계
Fine-Tuning은 전이 학습(Transfer Learning)의 한 형태로, 기존에 학습된 모델의 가중치를 그대로 사용하면서 특정 목적에 맞게 일부를 조정하는 방식입니다.
전이 학습(Transfer Learning): 이미 학습된 모델의 지식을 활용하여 새로운 작업(Task)에 적응시키는 방법입니다. 즉 기존 모델이 대규모 데이터셋에서 학습한 내용을 그대로 사용하면서, 추가 학습을 통해 특정한 도메인이나 업무에 맞게 조정하는 방식입니다. Fine-Tuning: 전이 학습을 기반으로, 특정 도메인이나 작업에 맞게 모델의 일부 또는 전체 가중치를 추가 학습하는 방식입니다.
Fine-Tuning을 수행하면 기존 모델이 학습한 일반적인 언어 패턴과 구조를 유지하면서도, 새로운 데이터를 반영하여 특정 작업에 적합한 모델을 만들 수 있습니다.
전이 학습에서 가중치(Weight)의 역할 AI 모델이 학습할 때는 입력 데이터의 패턴을 분석하고, 중요한 요소에 가중치(Weight)를 부여합니다. Fine-Tuning을 할 때는 기존 모델의 가중치를 유지하면서 특정 데이터에 맞게 일부 조정하는 방식으로 진행됩니다. 예를 들어,
기존 모델이 일반적인 뉴스 기사를 학습했다면, "주가 하락"과 "기술 혁신" 같은 단어가 비슷한 중요도를 가질 수 있습니다. 하지만 금융 뉴스 요약을 위해 Fine-Tuning하면, "주가 하락"과 관련된 단어들의 가중치를 높여서 더 정확한 요약을 생성할 수 있습니다.
2.2 데이터셋 구성
Fine-Tuning의 성능은 데이터 품질에 크게 영향을 받습니다.
양질의 데이터 확보 모델이 학습할 데이터는 정확하고, 신뢰할 수 있으며, 일관성이 있어야 합니다. 데이터 정제 및 전처리 오탈자, 중복 문장, 불필요한 데이터 등을 제거하여 모델이 불필요한 패턴을 학습하지 않도록 해야 합니다. 라벨링(Labeling) 지도 학습(Supervised Learning)이 필요한 경우, 데이터에 정확한 정답(Label)을 부여해야 합니다. 데이터 분할 데이터를 훈련(train), 검증(validation), 테스트(test) 세트로 나누어 모델의 학습과 평가를 균형 있게 진행해야 합니다.
2.3 Fine-Tuning 방식
Fine-Tuning은 크게 전체 모델을 조정하는 방식(Full Model Fine-Tuning)과 매개변수 효율적인 미세조정(Parameter-Efficient Fine-Tuning, PEFT)으로 나뉩니다. 최근에는 연산 비용과 메모리 사용을 절감하면서도 성능을 유지할 수 있는 PEFT 방식이 더 많이 활용되고 있습니다.
2.3.1 PEFT (Parameter-Efficient Fine-Tuning, 매개변수 효율적인 미세조정)
PEFT는 모델의 전체 가중치를 조정하지 않고 일부만 수정하여 학습하는 방식입니다.
기존 모델의 핵심 가중치는 유지하면서 일부만 학습하여 특정한 작업(Task)에 적응할 수 있습니다. 연산 자원이 제한적인 환경에서도 적용 가능하기 때문에 최근 가장 많이 활용되고 있습니다. 대표적인 PEFT 방법 LoRA (Low-Rank Adaptation) 모델의 일부 행렬만 조정하여 메모리 사용량을 절감하면서도 성능을 유지하는 방식입니다. 최근 기업 환경에서 가장 널리 활용되는 방법입니다. Adapter 방식 기존 모델의 구조를 변경하지 않고, 추가적인 적응 모듈(Adapter)을 삽입하여 학습하는 방식입니다. 멀티태스킹이 필요한 환경에서 유용합니다. (*수정) QLoRA (Quantized LoRA) 4-bit 양자화(Quantization)와 LoRA를 결합한 방식으로, 단일 GPU에서도 대형 모델의 Fine-Tuning이 가능합니다. 메모리 사용량을 대폭 줄이면서도 Full Fine-Tuning에 근접하는 성능을 달성할 수 있습니다. 비용 효율성이 높아 기업 환경에서 빠르게 채택되고 있습니다. [출처: Dettmers et al. "QLoRA: Efficient Finetuning of Quantized LLMs" (arXiv:2305.14314)] 장점 연산 비용이 적고 메모리 효율적입니다. 기존 모델의 성능을 유지하면서도 특정 작업에 최적화할 수 있습니다. 단점 완전히 새로운 도메인에서는 성능 향상이 제한적입니다. 기존 모델의 구조에 의존하므로, 독립적인 모델 구축이 어렵습니다.
2.3.2 전체 모델 파인 튜닝 (Full Model Fine-Tuning)
전체 모델 파인 튜닝은 모델의 모든 가중치(Weight)를 업데이트하는 방식으로 기존 모델의 모든 층(Layers)을 다시 학습하며, 연산 비용이 크고 많은 데이터가 필요합니다.
모델을 완전히 새로운 작업에 맞춰 조정하여 특정 도메인의 최상의 성능을 낼 수 있지만, GPU/TPU 같은 고성능 연산 자원이 필요하고 과적합(Overfitting) 가능성이 높습니다.
(*수정) light bulb 최근 트렌드: QLoRA/LoRA + DPO가 표준 워크플로우
최근에는 QLoRA 또는 LoRA로 모델을 효율적으로 Fine-Tuning한 후, DPO(Direct Preference Optimization)로 사람의 선호도에 맞게 추가 최적화하는 것이 표준 워크플로우로 자리잡고 있습니다. 전체 모델을 학습하는 방식은 연산 자원이 풍부한 연구 환경에서는 여전히 쓰이지만, 비용과 메모리를 절감하면서도 높은 성능을 유지할 수 있는 PEFT 방식이 기업 환경에서 더 선호되고 있습니다. 즉, 최근 Fine-Tuning의 흐름은 "QLoRA/LoRA로 도메인 적응 → DPO로 선호도 최적화"의 2단계 접근이 일반적입니다. [출처: Hugging Face, "TRL: Transformer Reinforcement Learning" documentation (huggingface.co/docs/trl)]
2.4 하이퍼파라미터 튜닝 (Hyperparameter Tuning)
Fine-Tuning의 성능을 최적화하기 위해서는 적절한 하이퍼파라미터 설정이 필수적입니다. 하이퍼파라미터는 모델 학습 과정에서 사람이 직접 설정하는 값으로, 모델이 얼마나 빠르게 학습하고 얼마나 정확한 결과를 도출할지를 결정합니다. 적절한 하이퍼파라미터를 설정하지 않으면 학습이 너무 오래 걸리거나, 과적합(overfitting) 또는 성능 저하가 발생할 수 있습니다. 적절한 하이퍼파라미터를 설정하면 Fine-Tuning 성능을 최적화하면서도 불필요한 계산 비용을 줄일 수 있습니다.
학습률 (Learning Rate, LR) 모델이 가중치를 업데이트하는 속도를 결정하는 값입니다. 너무 크면 가중치가 과도하게 변화하여 학습이 불안정해지고, 너무 작으면 가중치가 천천히 조정되어 학습 속도가 느려집니다. 배치 크기 (Batch Size) 한 번의 학습에서 처리하는 데이터 샘플의 개수를 의미합니다. 크기가 클수록 학습이 빠르지만 메모리 사용량이 증가하며, 작을수록 학습이 안정적이지만 속도가 느려질 수 있습니다. 에포크 수 (Epochs) 전체 데이터셋을 몇 번 반복 학습할지를 결정하는 값입니다. 너무 적으면 모델이 충분히 학습되지 않아 성능이 낮고, 너무 많으면 과적합이 발생할 수 있습니다. 옵티마이저 (Optimizer) 모델이 최적의 가중치를 찾는 방법을 결정합니다.
2.5 Fine-Tuning 과정의 주요 단계
Fine-Tuning을 진행하는 기본적인 과정은 다음과 같습니다.
(1) 사전 학습된 모델 준비 : 기존에 학습된 대형 언어 모델을 선택합니다.
(2) 데이터 수집 및 정제 : 모델이 학습할 데이터를 수집하고 중복 데이터, 오탈자, 불필요한 정보 등을 정리합니다.
(3) Fine-Tuning 방식 선택 : Full Fine-Tuning, LoRA, Adapter 방식 중 목적에 맞는 방법을 선택합니다.
(4) 모델 학습 및 하이퍼파라미터 최적화 : 모델을 학습시키고, 적절한 Learning Rate, Batch Size 등을 조정합니다.
(5) 모델 평가 및 검증 : Fine-Tuning된 모델이 기존 모델보다 얼마나 성능이 향상되었는지 평가합니다.
(6) 배포 및 모니터링 : Fine-Tuning된 모델을 실제 환경에 배포하고, 응답 품질과 성능을 지속적으로 모니터링합니다.
정리 : Fine Tuning의 핵심 요소
전이 학습 기반으로 기존 모델을 조정하는 과정 양질의 데이터를 확보하고 적절한 전처리를 수행해야 함 Full Fine-Tuning, LoRA, Adapter 등 다양한 학습 방법이 있음 학습률(Learning Rate), 배치 크기(Batch Size) 등의 하이퍼파라미터 조정이 중요함 Fine-Tuning 후 모델 평가 및 지속적인 개선이 필요함
3 Fine-Tuning의 한계
Fine-Tuning은 AI 모델을 특정한 업무나 도메인에 맞게 최적화하는 강력한 방법이지만, 무조건 최선의 해결책은 아닙니다. 다음은 Fine-Tuning을 사용할 때 고려해야 할 주요 한계점입니다.
(1) 높은 비용과 자원 소모
Fine-Tuning을 수행하려면 많은 양의 데이터, 강력한 컴퓨팅 자원(GPU/TPU), 그리고 학습 시간이 필요합니다. 대형 모델을 Fine-Tuning하면 비용이 크게 증가할 수 있습니다. 최신 LLM은 고성능 하드웨어가 필요하며, 학습을 반복할수록 연산량이 많아져 전력 소모 및 유지 비용도 커집니다.
(2) 데이터 준비의 어려움
파인튜닝을 위해서는 단순히 많은 데이터가 아니라 정확하고 유용한 데이터를 확보해야하며 효과적인 수행을 위해 사람이 직접 데이터 품질을 관리하고 모델성능을 평가해야합니다. 학습 데이터가 충분하지 않거나 품질이 낮으면 Fine-Tuning 후에도 성능이 오히려 저하될 수 있고, 편향된 데이터를 학습하면 모델이 잘못된 정보를 학습할 가능성이 있습니다. 데이터 라벨링(Labeling)과 정제(Cleaning) 작업이 필요하며, 전문적인 도메인일수록 데이터 구축이 어렵고 비용이 높아집니다.
(3) 모델 유지보수의 어려움
기존 모델이 업데이트될 경우, 새로운 버전에 맞춰 다시 Fine-Tuning을 진행해야 할 수도 있습니다. Fine-Tuning된 모델은 특정 도메인에 과적합(Overfitting)될 가능성이 높아, 일반적인 질문에 대한 응답이 저하될 수 있습니다. 여러 개의 Fine-Tuning 모델을 운영하면 버전 관리가 복잡해질 수 있습니다.
4 프롬프트 엔지니어링 vs. RAG vs. 파인튜닝 비교
생성형 AI 모델을 활용할 때, 원하는 성능을 얻기 위해 Prompt Engineering, RAG, Fine-Tuning 같은 다양한 기법을 사용할 수 있습니다. 하지만 각 방법이 쓰이는 빈도, 효과, 비용 등이 다르며, 상황에 따라 최적의 선택이 달라집니다. 현재 가장 널리 사용되는 방법은 Prompt Engineering입니다. 비용이 들지 않고 간단한 수정만으로도 모델의 출력을 개선할 수 있기 때문입니다. 하지만 프롬프트 조정만으로 해결되지 않는 문제도 많습니다.
최신 정보나 사내 데이터를 반영해야 할 경우, Fine-Tuning 없이도 유연하게 모델을 확장할 수 있는 RAG가 더 효과적일 수 있습니다. 반면, 특정한 업무나 도메인에 최적화된 AI 모델이 필요하다면 Fine-Tuning이 필수적이지만, 비용과 유지보수 부담이 크기 때문에 신중하게 선택해야 합니다. 따라서, 각 방법의 장단점을 정확히 이해하고, 주어진 문제와 환경에 맞춰 적절한 방법을 선택하는 것이 중요합니다.
방식 모델을 추가 학습 하지 않고, 프롬프트(질문)를 조정하여 원하는 결과를 유도 검색 시스템을 활용해 모델이 외부 지식(DB, 문서)을 참고하여 답변 생성 모델의 가중치를 직접 조정하여 특정 데이터에 맞춰 학습 목적 LLM 패턴을 사용자가 파악하여 유용한 응답 생성 환각 없는 정확한 응답 생성 응답 품질 및 도메인 관련 결과 개선 훈련 기간 N/A N/A 대개 몇분에서 몇시간 훈련 비용 없음 낮음 중간 커스터마이징 프롬프트 커스터마이징 기업 내부 데이터를 이용하여 프롬프트 컨텍스트를 위한 지식DB 구축/검색 모델 일부
요구되는 ML 전문성 낮음 낮음-중간 중간
[*추가] 5. 선호도 최적화 기법
Fine-Tuning된 모델의 출력을 사람의 선호에 더 잘 맞도록 조정하는 기법들이 있습니다.
5.1 RLHF (Reinforcement Learning from Human Feedback)
- 원리: 사람이 모델의 여러 출력 중 선호하는 것을 선택 → 보상 모델(Reward Model) 학습 → 강화학습으로 모델 최적화
- 장점: 사람의 가치관과 선호도를 모델에 반영 가능
- 단점: 보상 모델 학습이 필요하여 복잡하고 비용이 높음
- 대표 사례: ChatGPT, Claude 등 대부분의 상용 LLM이 RLHF를 거쳐 출시됨
5.2 DPO (Direct Preference Optimization)
- 원리: 보상 모델 없이, 선호/비선호 데이터 쌍을 직접 사용하여 모델을 최적화
- 장점: RLHF 대비 구현이 간단하고 안정적, 별도의 보상 모델이 불필요
- 단점: 선호 데이터의 품질에 크게 의존
- 활용: 오픈소스 모델의 Fine-Tuning에서 RLHF를 대체하여 가장 널리 사용됨 [출처: Rafailov et al. "Direct Preference Optimization: Your Language Model is Secretly a Reward Model" (arXiv:2305.18290)]
5.3 ORPO (Odds Ratio Preference Optimization)
- 원리: SFT(Supervised Fine-Tuning)와 선호도 최적화를 하나의 단계로 통합
- 장점: 별도의 참조 모델(Reference Model)이 불필요, 학습 효율성이 높음
- 활용: 리소스가 제한된 환경에서 효율적인 선호도 정렬에 적합
[*추가] 6. 합성 데이터 활용
Fine-Tuning에 필요한 고품질 학습 데이터를 확보하기 어려운 경우, 강력한 LLM을 활용하여 학습 데이터를 자동 생성하는 방법이 있습니다.
6.1 Self-Instruct 기법
- 원리: 기존 LLM(예: GPT-4o)에게 프롬프트를 제공하여 instruction-response 쌍을 대량 생성
- 과정: 시드(Seed) 데이터 준비 → LLM으로 다양한 질문-응답 쌍 생성 → 품질 필터링 → Fine-Tuning 데이터로 활용
- 장점: 사람이 직접 라벨링하는 비용을 대폭 절감
- 주의사항: 생성된 데이터의 품질 검증이 필수, 원본 LLM의 편향이 전파될 수 있음 [출처: Wang et al. "Self-Instruct: Aligning Language Models with Self-Generated Instructions" (arXiv:2212.10560)]
6.2 합성 데이터 활용 시 고려사항
- 데이터 다양성: 다양한 프롬프트 템플릿을 사용하여 편향된 데이터 생성 방지
- 품질 관리: 자동 필터링 + 사람의 샘플링 검증을 병행
- 라이선스: 일부 LLM의 이용약관에서 모델 학습용 데이터 생성을 제한하는 경우가 있으므로 확인 필요
[*추가] 7. Fine-Tuning 플랫폼
실무에서 Fine-Tuning을 수행할 수 있는 주요 플랫폼입니다.
| 플랫폼 | 특징 | 적합 대상 |
|---|---|---|
| OpenAI Fine-Tuning API | GPT 모델의 API 기반 Fine-Tuning, 코드 최소화 | 빠른 프로토타이핑, OpenAI 모델 사용자 |
| Amazon Bedrock | AWS 인프라에서 다양한 FM의 Fine-Tuning 지원 | AWS 기반 기업 환경 |
| Google Vertex AI | GCP에서 Gemini 등의 모델 Fine-Tuning 지원 | GCP 기반 기업 환경 |
| Hugging Face AutoTrain | 코드 없이 GUI 기반으로 오픈소스 모델 Fine-Tuning | 빠른 실험, ML 비전문가 |
| Unsloth | LoRA/QLoRA 기반 Fine-Tuning 최적화 라이브러리, 학습 속도 2~5배 향상 | 비용 효율적 Fine-Tuning |
| [출처: 각 플랫폼 공식 문서] |
[*추가] 8. 프롬프트 엔지니어링 vs RAG vs Fine-Tuning vs AI Agent 비교 (확장)
기존 3가지 기법에 AI Agent 기반 접근을 추가한 확장 비교표입니다.
| 비교 항목 | 프롬프트 엔지니어링 | RAG | Fine-Tuning | AI Agent |
|---|---|---|---|---|
| 방식 | 입력 프롬프트 최적화 | 외부 검색 + 생성 | 모델 가중치 재학습 | LLM + 도구 사용 + 자율 계획 |
| 모델 수정 | 없음 | 없음 | 있음 | 없음 (도구 통합) |
| 최신 정보 반영 | 불가 | 가능 | 학습 데이터 의존 | 도구 통해 가능 |
| 비용 | 없음 | 낮음~중간 | 중간~높음 | 중간 (API + 도구) |
| 전문성 요구 | 낮음 | 낮음~중간 | 중간~높음 | 중간 |
| 최적 사용 시기 | 간단한 출력 조정 | 최신/내부 데이터 활용 | 도메인 특화 성능 필요 | 복잡한 다단계 작업 자동화 |
| 실무 조합 전략: 실제 기업 환경에서는 단일 기법보다 여러 기법을 조합하여 사용합니다. |
- 1단계: 프롬프트 엔지니어링으로 기본 성능 확보
- 2단계: RAG로 내부 데이터 및 최신 정보 반영
- 3단계: Fine-Tuning으로 도메인 특화 성능 향상
- 4단계: AI Agent로 복잡한 워크플로우 자동화
한눈에 정리하는 이번 챕터
Fine-Tuning은 사전 학습된 LLM을 특정 용도에 맞게 추가 학습하는 과정으로, 모델을 특정 도메인이나 업무에 최적화할 수 있다. Fine-Tuning의 핵심 요소에는 전이 학습, 데이터셋 구성, 하이퍼파라미터 튜닝이 있으며, 이를 적절히 조정해야 원하는 성능을 얻을 수 있다. Fine-Tuning의 한계로는 많은 데이터와 연산 자원이 필요하며, 최신 정보 반영이 어렵다는 점이 있다. 프롬프트 엔지니어링, RAG, Fine-Tuning의 차이점을 이해하고, 목적에 따라 적절한 방법을 선택하는 것이 중요하다.
🚀 마무리
이번 챕터에서는 Fine-Tuning의 개념, 핵심 요소, 한계점, 그리고 Prompt Engineering, RAG와의 비교를 통해 각 기법의 차이점과 활용 방법을 배웠습니다. Fine-Tuning이 어떻게 모델의 성능을 개선하는지 이해하고, 언제 Fine-Tuning을 선택해야 하는지에 대한 기준도 살펴보았습니다.
생성형 AI를 효과적으로 활용하기 위해서는 단순히 모델을 사용하는 것을 넘어, 최적의 방식으로 모델을 개선하고 조정하는 전략이 필요합니다. Fine-Tuning이 반드시 필요한 경우도 있지만, 상황에 따라 Prompt Engineering이나 RAG가 더 적절할 수도 있습니다.
지금까지 배운 내용을 바탕으로, 실제 프로젝트에서 요구사항과 리소스를 고려하여 가장 적합한 최적화 방법을 선택하고 적용하는 것이 중요합니다.