transformers
-
LoRA 기반 LLaMA 파인튜닝 실습 가이드기술과 산업/AI 2025. 5. 22. 13:06
이 글은 LoRA를 활용해 LLaMA 기반 언어 모델을 효율적으로 파인튜닝하는 실습 가이드입니다. Hugging Face peft 라이브러리를 중심으로 코드를 제공하며, 실전에서 바로 활용 가능한 구조로 구성했습니다. 실습 목표LLaMA 기반 모델에 LoRA를 적용텍스트 생성 태스크로 파인튜닝 진행peft 라이브러리를 이용한 구조적 학습 1단계. 환경 준비pip install transformers accelerate datasets peft bitsandbytes⚠️ bitsandbytes는 GPU 환경에서만 작동합니다. CPU-only 환경에서는 학습이 불가합니다. 2단계. 모델 및 토크나이저 로드from transformers import AutoTokenizer, AutoModelForCausal..
-
Hugging Face에서 LLaMA 실행하는 3가지 방법기술과 산업/AI 2025. 4. 15. 11:40
Hugging Face에서 LLaMA 실행하는 3가지 방법 – 코드 예제 포함LLaMA 모델을 Hugging Face에서 쉽게 실행하는 방법 3가지를 소개합니다.GPT 대신 로컬 또는 서버에서 오픈소스 LLM을 직접 실행하고 싶은 분들을 위한 실습형 가이드입니다.✳️ 글을 시작하며Meta AI의 LLaMA 3 시리즈는 Hugging Face Hub를 통해 바로 사용할 수 있도록 공개되어 있습니다.하지만 처음 접하는 사람에게는 실행 방식이 조금 어렵게 느껴질 수 있습니다.이 글에서는 다음 3가지 방법을 중심으로 가장 많이 사용되는 LLaMA 실행 방식을 정리합니다.✅ 사전 준비 사항Hugging Face 계정 생성 및 토큰 발급transformers, accelerate 패키지 설치모델 접근 권한 요청 (..