0. LoRA💡 Fine-Tuning사전에 훈련된 모델을 특정 작업에 맞게 추가로 훈련시키는 방법적은 비용으로도 큰 모델을 효율적으로 훈련시킬 수 있는 장점 제공 💡 PEET (Parameter-Efficient Fine-Tuning)적은 양의 매개변수를 학습하는 것 만으로도 빠른 시일 안에 새로운 문제를 비슷한 성능으로 풀 수 있게 하기 위한 미세조정(Fine-Tuning) 방법론모델 전체를 미세조정 하는 것보다, 훨씬 적은 계산 자원과 데이터가 필요함다양한 태스크나 문제에 대해 모델을 빠르게 적용하거나, 실험하려는 연구자나 개발자에게 매우 유용함💡 Fully Fine-Tuning이 힘든 이유 LLM의 weight는 최소 1.5GB ~ 3GBModel을 GPU에 로드하는 것만 해도, 엄청난 GP..