Steadily

  • 홈
  • 태그
  • 방명록

FFT 1

LoRA: Low-Rank Adaptation

LoRA?LoRA (Low-Rank Adaptation)은 PEFT (Parameter Efficient Fine-Tuning) 방법의 하나로써,모델을 학습시킬 때 전체 가중치를 업데이트하는 것이 아닌, 일부 파라미터만 효율적으로 학습시킴으로써 GPU 메모리 사용량을 획기적으로 줄일 수 있는 방법이다. 특히나 요즘같이 LLM과 같은 기반 모델의 크기가 매우 커지면서 FFT (Full Fine-Tuning)을 한정된 GPU 메모리 속에서 진행하기 힘든 시기에 PEFT 기법이 많이 주목받았는데, LoRA는 그중에서도 FFT에 비해 상대적으로 준하는 성능을 보이기에 더욱 사랑받는 기법이다. 기존 방법의 문제앞서 설명했듯이, 기존에는 전체 가중치를 업데이트하면서 학습시켰는데 (FFT), 이를 위한 메모리 사용량..

카테고리 없음 2025.02.06
이전
1
다음
더보기
프로필사진

서버와 데브옵스, 그리고 클라우드를 좋아합니다. 오늘 배운 개발지식을 하나씩 알려드려요. Email : songseungho9258@gmail.com

방문자수Total

  • Today :
  • Yesterday :
  • 분류 전체보기 (9)
    • Programming (6)
      • DevOps (1)
      • Java (1)
      • NLP,LLM (4)
    • Life (2)

Tag

ChatGPT, aws re:invent, AWS Lambda, multi-head attention, seq2seq, s2w, NLP, 자연어처리, PEFT, AWS GameDay, Slack-Ops, cybertuned, Github PR, LLM, hallucination, AWS, Bert, GPT-4, slack webhook, github webhook,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

Archives

Copyright © Kakao Corp. All rights reserved.

티스토리툴바