GPT
-
LLM 학습 시리즈 1화 – LLM 학습의 시작: 사전학습(Pretraining)이란 무엇인가?기술과 산업/AI 2025. 5. 22. 16:00
LLM 학습의 첫걸음인 '사전학습(Pretraining)'은 무엇이며 왜 중요한가? 대규모 언어 모델이 세상의 텍스트를 어떻게 배우는지, 실제 방식과 그 의미를 깊이 있게 분석합니다. 대규모 언어 모델, 흔히 LLM(Large Language Model)이라 불리는 기술의 근간은 어디서 시작될까요?모든 것은 "사전학습(pretraining)"이라는 핵심 과정에서 출발합니다. 이 글에서는 GPT나 Claude, LLaMA 같은 모델들이 어떻게 언어를 배우는지, 그 기초 설계 원리에 대해 집중 분석해봅니다. LLM의 학습은 왜 '사전학습'부터 시작되는가?사전학습은 말 그대로, 모델이 세상의 언어 데이터를 처음 접하고 익히는 단계입니다.이는 인간의 뇌가 책을 읽고 언어를 배우듯, 모델이 인터넷에 존재하는 수십..
-
LoRA 거대 언어 모델을 가볍게 학습시키는 마법 같은 방법기술과 산업/AI 2025. 5. 22. 13:02
LoRA는 대형 언어 모델을 효율적으로 파인튜닝할 수 있는 방법입니다. 이 글에서는 Microsoft가 제안한 LoRA의 개념, 수식 구조, 실험 결과, 그리고 다양한 적용 사례까지 자세히 소개합니다. 거대한 언어 모델을 파인튜닝하면서 수백만 개의 파라미터를 전부 학습하는 일이 부담스럽게 느껴진 적 있으신가요?Microsoft와 University of Washington 연구진이 함께 제안한 LoRA(Low-Rank Adaptation)는, 기존 모델의 성능은 유지하면서도 파인튜닝에 필요한 파라미터 수를 극적으로 줄여주는 방법론입니다.오늘은 이 LoRA 논문(arXiv:2106.09685)을 바탕으로, 왜 이 기술이 중요한지, 어떻게 작동하는지, 그리고 실전에서는 어떤 효과를 주는지 함께 살펴보겠습니다..
-
GPT-4와 LLaMA 3.1 성능 비교 분석 – 오픈소스 LLM의 반격이 시작됐다기술과 산업/언어 및 프레임워크 2025. 4. 13. 08:30
목차GPT-4 vs LLaMA 3.1 비교 개요파라미터, 토큰 길이, 모델 크기 비교벤치마크 성능 비교실제 활용 시 고려 요소 (비용/보안/로컬 실행 등)결론: 어떤 모델을 선택할까? GPT-4 vs LLaMA 3.1 비교 개요GPT-4는 OpenAI가 만든 프라이빗 상용 LLM이고, LLaMA 3.1은 Meta가 공개한 오픈소스 대형 언어 모델입니다.이제는 단순한 모델 성능이 아니라, 비용, 확장성, 커스터마이징 가능성까지 포함해 실전에서의 선택이 중요해졌습니다. 모델 스펙 비교항목GPT-4-turboLLaMA 3.1 (405B)파라미터 수비공개 (1.5T 추정)405B최대 컨텍스트 길이128K 이상128K멀티모달 지원지원 (Pro only)예정라이선스비공개 상용Meta 허가 기반 오픈사용 방식API ..