공부 메모장
close
프로필 배경
프로필 로고

공부 메모장

  • 분류 전체보기 (50)
    • 개발 (13)
    • k8s (6)
    • Terraform (4)
    • AI (27)
  • Github
  • 홈
  • 태그
  • 방명록

KoAlpaca 데이터셋을 활용한 Llama 3.1 LoRA 기반 PEFT

Llama 3.1 모델을 LoRA(Low-Rank Adaptation) 기법을 사용해 한국어 데이터셋인 KoAlpaca를 기반으로 Parameter Efficient Fine-Tuning 하는 과정을 다룬다.LoRA는 대규모 언어 모델을 적은 자원으로도 효율적으로 학습할 수 있도록 돕는 PEFT의 한 기법이다. 1. 환경 설정먼저, 모델을 학습하거나 미세 조정하기 위해 필요한 라이브러리를 설치한다.!pip install accelerate # 모델 학습 속도 향상!pip install peft # LoRA를 포함한 효율적 미세 조정!pip install bitsandbytes # 양자화 기술을 통한 메모리 최적화!pip install transformers # 트랜스포머 기반 모델 라이브러..

  • format_list_bulleted AI
  • · 2024. 10. 7.
  • textsms
  • navigate_before
  • 1
  • navigate_next
공지사항
전체 카테고리
  • 분류 전체보기 (50)
    • 개발 (13)
    • k8s (6)
    • Terraform (4)
    • AI (27)
최근 글
인기 글
최근 댓글
태그
  • #Retrieval Augmented Generation
  • #kubernetes
  • #terraform
  • #ollama
  • #Rag
  • #AWS
  • #테라폼
  • #쿠버네티스
  • #rocky linux 9
  • #k8s
전체 방문자
오늘
어제
전체
Copyright © 쭈미로운 생활 All rights reserved.
Designed by JJuum

티스토리툴바