LLM
-
Spring AI 시리즈 1화 – Spring AI 소개: 왜 지금 AI와 Spring의 결합인가?기술과 산업/언어 및 프레임워크 2025. 5. 30. 11:11
Spring AI는 OpenAI, Hugging Face, Mistral 등 다양한 LLM을 Spring 개발 환경에서 통합할 수 있는 AI 프레임워크입니다. 본 글에서는 Spring AI의 등장 배경과 핵심 가치, 그리고 왜 지금 Java 생태계에서 AI가 중요한지를 분석합니다. AI 기술의 진보는 개발자의 일상 언어로까지 파고들고 있습니다. 특히 OpenAI, Anthropic, Hugging Face와 같은 LLM API들이 강력한 텍스트 생성, 요약, 추론 기능을 제공하면서, 우리는 ‘AI 기능을 애플리케이션에 녹이는 일’에 익숙해지고 있죠. 하지만 Spring 개발자에게 AI는 여전히 먼 이야기처럼 느껴졌습니다. 대부분의 AI 튜토리얼은 Python 기반이고, 프론트엔드에서는 JS 기반 라이브..
-
LLM 학습 시리즈 3화 – 인간다운 AI를 만드는 마지막 퍼즐: RLHF 완전 이해기술과 산업/AI 2025. 5. 23. 14:00
LLM이 사람처럼 말하고 판단하려면 무엇이 필요할까? 이 글에서는 ‘인간 피드백 기반 강화학습(RLHF)’의 원리와 구조, 실제 효과까지 꼼꼼히 파헤쳐 봅니다. 사람처럼 말하고, 적절한 판단까지 내리는 언어 모델.우리는 이제 단순히 지식을 갖춘 AI를 넘어서, 공감과 균형 감각을 가진 AI를 원하고 있습니다.이를 가능하게 하는 기술이 바로 RLHF(Reinforcement Learning from Human Feedback), 즉 인간 피드백 기반 강화학습입니다.ChatGPT, Claude, Gemini와 같은 고급 AI 모델의 결정적 성능 향상은 대부분 이 단계를 거친 결과라고 해도 과언이 아닙니다. RLHF는 무엇인가? 한 줄 요약부터 시작하자면"AI가 만든 여러 답변 중, 인간이 '가장 바람직한 것..
-
LLM 학습 시리즈 2화 – LLM을 똑똑하게 만드는 법: 감독학습(SFT)과 그 한계기술과 산업/AI 2025. 5. 23. 08:30
LLM이 인간처럼 질문에 답하고 명령을 수행하려면 사전학습만으로는 부족합니다. 이 글에서는 '감독학습(Supervised Fine-Tuning)'의 역할과 그 구조적 한계를 깊이 있게 다룹니다. LLM이 아무리 많은 텍스트를 학습했더라도, 단순히 '많이 읽은 AI'일 뿐입니다.실제 사용자의 명령을 이해하고 그에 맞춰 정확한 반응을 하기 위해서는 추가 학습이 필요합니다.바로 그 역할을 하는 것이 감독학습(Supervised Fine-Tuning, SFT) 입니다. SFT란 무엇인가? 쉽게 설명하면…SFT는 “이 입력에는 이렇게 답하라”는 정답지를 주고 모델을 다시 훈련시키는 과정입니다.예를 들어 아래와 같은 데이터로 구성됩니다:[입력] 다음 문장을 영어로 번역하세요: "나는 밥을 먹었다." [출력] I ..
-
LLM 학습 시리즈 1화 – LLM 학습의 시작: 사전학습(Pretraining)이란 무엇인가?기술과 산업/AI 2025. 5. 22. 16:00
LLM 학습의 첫걸음인 '사전학습(Pretraining)'은 무엇이며 왜 중요한가? 대규모 언어 모델이 세상의 텍스트를 어떻게 배우는지, 실제 방식과 그 의미를 깊이 있게 분석합니다. 대규모 언어 모델, 흔히 LLM(Large Language Model)이라 불리는 기술의 근간은 어디서 시작될까요?모든 것은 "사전학습(pretraining)"이라는 핵심 과정에서 출발합니다. 이 글에서는 GPT나 Claude, LLaMA 같은 모델들이 어떻게 언어를 배우는지, 그 기초 설계 원리에 대해 집중 분석해봅니다. LLM의 학습은 왜 '사전학습'부터 시작되는가?사전학습은 말 그대로, 모델이 세상의 언어 데이터를 처음 접하고 익히는 단계입니다.이는 인간의 뇌가 책을 읽고 언어를 배우듯, 모델이 인터넷에 존재하는 수십..
-
LoRA 실무 적용 가이드 – Hugging Face 기반 활용법과 주의사항기술과 산업/AI 2025. 5. 22. 13:05
LoRA는 Hugging Face peft 라이브러리를 통해 손쉽게 적용할 수 있는 경량 파인튜닝 기법입니다. 이 글에서는 실전 적용법, 주의사항, 그리고 다양한 활용 사례까지 사실에 기반하여 정리했습니다. 앞서 살펴본 LoRA는 이론적으로 매우 효율적인 방법이지만, 실제 구현과 적용에서는 몇 가지 기술적 맥락과 주의점이 필요합니다. 특히 Hugging Face의 PEFT(Parameter-Efficient Fine-Tuning) 라이브러리를 활용하면 LoRA를 실전 환경에서도 손쉽게 사용할 수 있습니다. Hugging Face peft 라이브러리로 LoRA 적용하기2023년 이후 Hugging Face는 peft라는 라이브러리를 통해 LoRA와 같은 경량 파인튜닝 기법을 통합 관리합니다.설치 방법pip..
-
LoRA 거대 언어 모델을 가볍게 학습시키는 마법 같은 방법기술과 산업/AI 2025. 5. 22. 13:02
LoRA는 대형 언어 모델을 효율적으로 파인튜닝할 수 있는 방법입니다. 이 글에서는 Microsoft가 제안한 LoRA의 개념, 수식 구조, 실험 결과, 그리고 다양한 적용 사례까지 자세히 소개합니다. 거대한 언어 모델을 파인튜닝하면서 수백만 개의 파라미터를 전부 학습하는 일이 부담스럽게 느껴진 적 있으신가요?Microsoft와 University of Washington 연구진이 함께 제안한 LoRA(Low-Rank Adaptation)는, 기존 모델의 성능은 유지하면서도 파인튜닝에 필요한 파라미터 수를 극적으로 줄여주는 방법론입니다.오늘은 이 LoRA 논문(arXiv:2106.09685)을 바탕으로, 왜 이 기술이 중요한지, 어떻게 작동하는지, 그리고 실전에서는 어떤 효과를 주는지 함께 살펴보겠습니다..
-
RAG 시리즈 1화 - RAG란 무엇인가? AI 혁신의 핵심 개념기술과 산업/AI 2025. 5. 15. 20:53
RAG(Retrieval-Augmented Generation)의 개념과 등장 배경, 원리를 심층 분석합니다. LLM 한계를 보완하는 새로운 AI 혁신 기술로서 RAG가 주목받는 이유를 사례와 함께 소개합니다. 도입 - 왜 RAG인가? 2024년 이후 AI 업계에서 가장 주목받는 키워드 중 하나가 **RAG(Retrieval-Augmented Generation)**입니다.많은 기업과 연구기관들이 LLM(Large Language Model)의 한계를 뛰어넘기 위해 RAG 기술을 연구하고 있습니다.필자는 데이터와 사례 중심으로 RAG의 등장을 산업 구조와 연결지어 분석해 보겠습니다. 기존 LLM은 대규모 파라미터와 방대한 학습 데이터를 바탕으로 뛰어난 자연어 처리 성능을 보였습니다.그러나 지식 업데이트..
-
GPT-4와 LLaMA 3.1 성능 비교 분석 – 오픈소스 LLM의 반격이 시작됐다기술과 산업/언어 및 프레임워크 2025. 4. 13. 08:30
목차GPT-4 vs LLaMA 3.1 비교 개요파라미터, 토큰 길이, 모델 크기 비교벤치마크 성능 비교실제 활용 시 고려 요소 (비용/보안/로컬 실행 등)결론: 어떤 모델을 선택할까? GPT-4 vs LLaMA 3.1 비교 개요GPT-4는 OpenAI가 만든 프라이빗 상용 LLM이고, LLaMA 3.1은 Meta가 공개한 오픈소스 대형 언어 모델입니다.이제는 단순한 모델 성능이 아니라, 비용, 확장성, 커스터마이징 가능성까지 포함해 실전에서의 선택이 중요해졌습니다. 모델 스펙 비교항목GPT-4-turboLLaMA 3.1 (405B)파라미터 수비공개 (1.5T 추정)405B최대 컨텍스트 길이128K 이상128K멀티모달 지원지원 (Pro only)예정라이선스비공개 상용Meta 허가 기반 오픈사용 방식API ..