콘텐츠로 이동

모델 다운로드 툴 (model-tool)

model-tool은 DGX Spark 환경에서 대규모 언어 모델(LLM)을 사내 모델 서버로부터 빠르고 편리하게 다운로드하고 관리할 수 있도록 제작된 전용 CLI 도구입니다.

주의

본 문서 작성 시점에 사내 모델 서버는 아직 준비되지 않았습니다.

공지 후에 [SERVER-IP]을 세팅하여 사용하면 됩니다.


개요

기존의 curl이나 wget을 이용한 수동 다운로드 방식 대신, 간단한 명령어로 모델 목록을 확인하고 필요한 경로(Ollama, HuggingFace 등)로 즉시 다운로드할 수 있습니다.

항목 내용
명령어 model-tool
설치 경로 /usr/local/bin/model-tool
설정 파일 ~/.config/model-tool.config
서버 주소 http://[SERVER-IP]:11222

주요 기능

  • 모델 목록 조회: 다운로드 가능한 모델 리스트를 번호와 함께 출력합니다.
  • 간편 다운로드: 목록의 번호만 지정하여 모델을 다운로드할 수 있습니다.
  • 자동 경로 지정: 모델 유형에 따라 Ollama 데이터 폴더나 HuggingFace 캐시 폴더로 자동 다운로드됩니다.
  • 상태 점검: 모델 서버와의 연결 상태를 즉시 확인합니다.

사용법

1단계: 초기 설정 (Configuration)

model-tool을 처음 사용하거나 서버 주소를 변경해야 할 때 초기 설정을 진행합니다. 대화형 인터페이스를 통해 서버 URL과 모델 저장 경로를 설정할 수 있습니다.

model-tool config
설정 과정 예시
Model Client Setup

Please configure the following settings.

Server URL (http://[SERVER-IP]:11222): http://192.168.100.10:11222
Ollama models path (/home/techax/lab/ollama/ollama-data/models): 
HuggingFace models path (/home/techax/.cache/huggingface/hub):

2단계: 서버 연결 상태 확인

모델 서버와 통신이 가능한지 확인합니다.

model-tool status

3단계: 모델 목록 확인

서버에서 제공하는 모델 목록을 확인합니다.

model-tool list
실행 결과 예시
                                        Available Models                                        
┏━━━━┳━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━━┳━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━┓
┃  # ┃ Name                              ┃ Provider ┃     Size ┃ Modified         ┃ Downloaded ┃
┡━━━━╇━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━━╇━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━┩
│  1 │ gemma3:12b                        │ ollama   │   7.6 GB │ 2025-12-30 09:37 │     ✓      │
│  2 │ gemma3:270m                       │ ollama   │ 278.0 MB │ 2025-12-30 09:25 │     ✓      │
│  3 │ gemma3:27b                        │ ollama   │  16.2 GB │ 2025-12-30 09:25 │     ✓      │
│  4 │ gpt-oss:120b                      │ ollama   │  60.9 GB │ 2025-12-30 09:31 │     ✓      │
│  5 │ gpt-oss:20b                       │ ollama   │  12.8 GB │ 2025-12-30 09:36 │     ✓      │
│  6 │ qwen3-coder:30b                   │ ollama   │  17.3 GB │ 2025-12-30 09:37 │     ✓      │
│  7 │ qwen3-vl:32b                      │ ollama   │  19.5 GB │ 2025-12-30 09:38 │     ✓      │
│  8 │ qwen3-vl:8b                       │ ollama   │   5.7 GB │ 2025-12-30 09:39 │     ✓      │
│  9 │ qwen3:14b                         │ ollama   │   8.6 GB │ 2025-12-30 09:39 │     ✓      │
│ 10 │ qwen3:32b                         │ ollama   │  18.8 GB │ 2025-12-30 09:40 │     ✓      │
│ 11 │ PaddlePaddle/PaddleOCR-VL         │ hf       │   2.0 GB │ 2025-12-30 08:56 │     ✓      │
│ 12 │ Qwen/Qwen2.5-VL-32B-Instruct      │ hf       │  63.6 GB │ 2025-12-30 08:57 │     ✓      │
│ 13 │ Qwen/Qwen3-30B-A3B-Instruct-2507  │ hf       │  56.9 GB │ 2025-12-30 08:59 │     ✓      │
│ 14 │ Qwen/Qwen3-Coder-30B-A3B-Instruct │ hf       │  56.9 GB │ 2025-12-30 09:00 │     ✓      │
│ 15 │ Qwen/Qwen3-Embedding-8B           │ hf       │  14.1 GB │ 2025-12-31 08:31 │     ✓      │
│ 16 │ Qwen/Qwen3-VL-30B-A3B-Instruct    │ hf       │  57.9 GB │ 2025-12-30 09:03 │     ✓      │
│ 17 │ Qwen/Qwen3-VL-8B-Instruct         │ hf       │  16.3 GB │ 2025-12-30 09:04 │     ✓      │
│ 18 │ openai/gpt-oss-120b               │ hf       │ 182.3 GB │ 2025-12-30 12:53 │     ✓      │
│ 19 │ openai/gpt-oss-20b                │ hf       │  38.5 GB │ 2025-12-16 08:41 │     ✓      │
└────┴───────────────────────────────────┴──────────┴──────────┴──────────────────┴────────────┘

Total: 19 models, 656.2 GB

4단계: 모델 상세 정보 확인

목록의 번호를 사용하여 특정 모델의 상세 정보를 확인합니다.

# 예: 1번 모델 정보 확인
model-tool info 1

5단계: 모델 다운로드

원하는 모델을 다운로드합니다. 다운로드 경로는 자동으로 설정됩니다.

# 예: 1번 모델 다운로드
model-tool download 1

6단계: 모델 삭제 (로컬)

로컬에 다운로드된 모델을 삭제하여 디스크 공간을 확보합니다.

model-tool delete 1

설정 확인

현재 설정된 서버 주소 및 다운로드 경로를 확인할 수 있습니다.

model-tool config show

다운로드 경로

  • Ollama: ~/lab/ollama/ollama-data/models
  • HuggingFace: ~/.cache/huggingface/hub