728x90
pretraining
-
LLM 학습 시리즈 1화 – LLM 학습의 시작: 사전학습(Pretraining)이란 무엇인가?기술과 산업/AI 2025. 5. 22. 16:00
LLM 학습의 첫걸음인 '사전학습(Pretraining)'은 무엇이며 왜 중요한가? 대규모 언어 모델이 세상의 텍스트를 어떻게 배우는지, 실제 방식과 그 의미를 깊이 있게 분석합니다. 대규모 언어 모델, 흔히 LLM(Large Language Model)이라 불리는 기술의 근간은 어디서 시작될까요?모든 것은 "사전학습(pretraining)"이라는 핵심 과정에서 출발합니다. 이 글에서는 GPT나 Claude, LLaMA 같은 모델들이 어떻게 언어를 배우는지, 그 기초 설계 원리에 대해 집중 분석해봅니다. LLM의 학습은 왜 '사전학습'부터 시작되는가?사전학습은 말 그대로, 모델이 세상의 언어 데이터를 처음 접하고 익히는 단계입니다.이는 인간의 뇌가 책을 읽고 언어를 배우듯, 모델이 인터넷에 존재하는 수십..