모델 다운로드 툴 (model-tool)¶
model-tool은 DGX Spark 환경에서 대규모 언어 모델(LLM)을 사내 모델 서버로부터 빠르고 편리하게 다운로드하고 관리할 수 있도록 제작된 전용 CLI 도구입니다.
주의
본 문서 작성 시점에 사내 모델 서버는 아직 준비되지 않았습니다.
공지 후에 [SERVER-IP]을 세팅하여 사용하면 됩니다.
개요¶
기존의 curl이나 wget을 이용한 수동 다운로드 방식 대신, 간단한 명령어로 모델 목록을 확인하고 필요한 경로(Ollama, HuggingFace 등)로 즉시 다운로드할 수 있습니다.
| 항목 | 내용 |
|---|---|
| 명령어 | model-tool |
| 설치 경로 | /usr/local/bin/model-tool |
| 설정 파일 | ~/.config/model-tool.config |
| 서버 주소 | http://[SERVER-IP]:11222 |
주요 기능¶
- 모델 목록 조회: 다운로드 가능한 모델 리스트를 번호와 함께 출력합니다.
- 간편 다운로드: 목록의 번호만 지정하여 모델을 다운로드할 수 있습니다.
- 자동 경로 지정: 모델 유형에 따라 Ollama 데이터 폴더나 HuggingFace 캐시 폴더로 자동 다운로드됩니다.
- 상태 점검: 모델 서버와의 연결 상태를 즉시 확인합니다.
사용법¶
1단계: 초기 설정 (Configuration)¶
model-tool을 처음 사용하거나 서버 주소를 변경해야 할 때 초기 설정을 진행합니다. 대화형 인터페이스를 통해 서버 URL과 모델 저장 경로를 설정할 수 있습니다.
설정 과정 예시
2단계: 서버 연결 상태 확인¶
모델 서버와 통신이 가능한지 확인합니다.
3단계: 모델 목록 확인¶
서버에서 제공하는 모델 목록을 확인합니다.
실행 결과 예시
Available Models
┏━━━━┳━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━┓
┃ # ┃ Name ┃ Provider ┃ Size ┃ Modified ┃ Downloaded ┃
┡━━━━╇━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━┩
│ 1 │ gemma3:12b │ ollama │ 7.6 GB │ 2025-12-30 09:37 │ ✓ │
│ 2 │ gemma3:270m │ ollama │ 278.0 MB │ 2025-12-30 09:25 │ ✓ │
│ 3 │ gemma3:27b │ ollama │ 16.2 GB │ 2025-12-30 09:25 │ ✓ │
│ 4 │ gpt-oss:120b │ ollama │ 60.9 GB │ 2025-12-30 09:31 │ ✓ │
│ 5 │ gpt-oss:20b │ ollama │ 12.8 GB │ 2025-12-30 09:36 │ ✓ │
│ 6 │ qwen3-coder:30b │ ollama │ 17.3 GB │ 2025-12-30 09:37 │ ✓ │
│ 7 │ qwen3-vl:32b │ ollama │ 19.5 GB │ 2025-12-30 09:38 │ ✓ │
│ 8 │ qwen3-vl:8b │ ollama │ 5.7 GB │ 2025-12-30 09:39 │ ✓ │
│ 9 │ qwen3:14b │ ollama │ 8.6 GB │ 2025-12-30 09:39 │ ✓ │
│ 10 │ qwen3:32b │ ollama │ 18.8 GB │ 2025-12-30 09:40 │ ✓ │
│ 11 │ PaddlePaddle/PaddleOCR-VL │ hf │ 2.0 GB │ 2025-12-30 08:56 │ ✓ │
│ 12 │ Qwen/Qwen2.5-VL-32B-Instruct │ hf │ 63.6 GB │ 2025-12-30 08:57 │ ✓ │
│ 13 │ Qwen/Qwen3-30B-A3B-Instruct-2507 │ hf │ 56.9 GB │ 2025-12-30 08:59 │ ✓ │
│ 14 │ Qwen/Qwen3-Coder-30B-A3B-Instruct │ hf │ 56.9 GB │ 2025-12-30 09:00 │ ✓ │
│ 15 │ Qwen/Qwen3-Embedding-8B │ hf │ 14.1 GB │ 2025-12-31 08:31 │ ✓ │
│ 16 │ Qwen/Qwen3-VL-30B-A3B-Instruct │ hf │ 57.9 GB │ 2025-12-30 09:03 │ ✓ │
│ 17 │ Qwen/Qwen3-VL-8B-Instruct │ hf │ 16.3 GB │ 2025-12-30 09:04 │ ✓ │
│ 18 │ openai/gpt-oss-120b │ hf │ 182.3 GB │ 2025-12-30 12:53 │ ✓ │
│ 19 │ openai/gpt-oss-20b │ hf │ 38.5 GB │ 2025-12-16 08:41 │ ✓ │
└────┴───────────────────────────────────┴──────────┴──────────┴──────────────────┴────────────┘
Total: 19 models, 656.2 GB
4단계: 모델 상세 정보 확인¶
목록의 번호를 사용하여 특정 모델의 상세 정보를 확인합니다.
5단계: 모델 다운로드¶
원하는 모델을 다운로드합니다. 다운로드 경로는 자동으로 설정됩니다.
6단계: 모델 삭제 (로컬)¶
로컬에 다운로드된 모델을 삭제하여 디스크 공간을 확보합니다.
설정 확인¶
현재 설정된 서버 주소 및 다운로드 경로를 확인할 수 있습니다.
다운로드 경로
- Ollama:
~/lab/ollama/ollama-data/models - HuggingFace:
~/.cache/huggingface/hub