로컬 LLM 설치 기준 정보 ) llm 가이드 2026년 에디션
작성자 정보
- 최고관리자 작성
- 192.♡.0.1 아이피
- 작성일
컨텐츠 정보
- 193 조회
- 목록
링크
첨부
본문
로컬 LLM 완벽 구매 가이드 2026년 에디션
오늘 vm 으로 구동하는 esxi 서버에 ubuntu 설치 하여 llm 을 구동하니
사양이 너무 낮아 사용 불가능
사용중인 pc는
pc의 * 그래픽카드: NVIDIA GeForce GTX 1050 Ti 입니다 어느 모델까지 사용가능 한지 분석
현재 GPU
NVIDIA GeForce GTX 1050 Ti
일반 사양:
VRAM: 4GB
아키텍처: Pascal
CUDA 지원: 가능
LLM 구동: 소형~중형 모델까지 가능
VRAM 기준 LLM 가능 범위
모델 크기 필요 VRAM (대략) 사용 가능 여부
1B ~ 3B 2~4GB ✅ 매우 원활
7B (Q4) 4~6GB ⚠ 제한적 가능
8B (Q4) 5~6GB ❌ 거의 불가능
13B 이상 10GB+ ❌ 불가능
실제 사용 가능한 모델 (1050 Ti 기준)
가장 안정적
Phi-3 mini (3.8B)
VRAM: 약 3~4GB
속도: 빠름
품질: 준수
추천도: ⭐⭐⭐⭐⭐
명령:
ollama run phi3
첨부 파일을 스킨보드에 구성 PDF보기( W:\g5\skin\board\BS4-Basic-Webzine_11q_pdf_php82\view.skin.php + view_pdf.php구성)
관련자료
-
링크
-
이전
-
다음
댓글 0
등록된 댓글이 없습니다.