기술과 산업/AI

Ollama 시리즈 2화 – Ollama 설치 및 첫 실행: macOS, Linux, Windows별 가이드

B컷개발자 2025. 5. 12. 19:28
728x90

Ollama의 강점 중 하나는 다양한 OS 환경에서 단 몇 단계의 설치로 바로 실행 가능하다는 점입니다. 이번 회차에서는 macOS, Linux, Windows에서 Ollama를 설치하고 첫 모델을 실행하는 방법을 실습 위주로 안내합니다.


✅ 사전 준비 사항

구분 최소 요구 사항

OS macOS 12 이상, Ubuntu 20.04 이상, Windows 10 이상
메모리 최소 8GB RAM (권장 16GB 이상)
저장공간 모델 다운로드를 위한 최소 10GB 여유 공간
GPU (선택) NVIDIA GPU 사용 시 성능 개선 가능 (Linux/Windows)

🎯 1. macOS 설치

1️⃣ Homebrew로 설치 (권장)

brew install ollama

2️⃣ 직접 다운로드

3️⃣ 첫 모델 실행

ollama run llama3

macOS 환경에서는 Apple Silicon (M1/M2/M3) 최적화가 매우 잘 되어 있습니다.


🎯 2. Linux 설치 (Ubuntu 예시)

1️⃣ 공식 설치 스크립트 사용

curl -fsSL https://ollama.com/install.sh | sh

참고: sudo 권한 필요 시 sudo sh install.sh

2️⃣ 첫 모델 실행

ollama run llama3

Linux에서는 GPU를 활용한 CUDA 가속도 가능합니다.
추후 고급 회차에서 GPU 세팅을 별도로 안내합니다.


🎯 3. Windows 설치

1️⃣ Windows WSL2 기반 설치 (권장)

Ollama는 Windows에서 WSL2 (Windows Subsystem for Linux) 환경을 통한 Ubuntu 실행을 권장합니다.

(a) WSL2 설치

wsl --install

(b) Ubuntu 환경 진입

wsl

(c) Linux와 동일하게 설치

curl -fsSL https://ollama.com/install.sh | sh

(d) 첫 모델 실행

ollama run llama3

2️⃣ Native Windows 설치 (실험적)

현재 Windows native build는 베타 테스트 중입니다. Ollama Discord 커뮤니티에서 별도 안내를 확인해야 합니다.


🎯 4. 설치 확인

설치 후 아래 명령어로 정상 설치 여부를 확인합니다.

ollama --version
ollama list

설치된 버전과 로컬 모델 리스트가 출력되면 성공입니다.


🎉 첫 모델 실행 예시

ollama run llama3

💬 "Tell me about Ollama."

🧠 (출력) "Ollama is a platform designed to run large language models locally on your computer..."

로컬 환경에서 클라우드 연결 없이 곧바로 실행 결과를 얻을 수 있습니다.


💡 팁: Ollama CLI 자동 완성

  • macOS/Linux: bash, zsh 등에서 자동 완성 기능을 활성화할 수 있습니다.
  • 자세한 방법은 공식 GitHub 문서 참고 → https://github.com/ollama/ollama

✅ 설치 후 체크리스트

항목 확인

Ollama 설치 완료
ollama list 정상 동작
모델 실행 성공 (ollama run llama3)
RAM, Storage 등 시스템 자원 확인

다음 회차 예고

👉 3화 – Ollama CLI 완전 정복: ollama run, ollama list, ollama pull 명령어 핵심

 

728x90