코딩게시판

로컬 LLM 설치 기준 정보 ) llm 가이드 2026년 에디션

작성자 정보

  • 최고관리자 작성
  • 192.♡.0.1 아이피
  • 작성일

컨텐츠 정보


  • 링크

  • 첨부


  • 본문

     로컬 LLM 완벽 구매 가이드 2026년 에디션


    오늘 vm 으로 구동하는  esxi 서버에 ubuntu 설치 하여   llm 을 구동하니

    사양이 너무 낮아  사용 불가능


    사용중인   pc는 


    pc의 * 그래픽카드: NVIDIA GeForce GTX 1050 Ti 입니다 어느 모델까지 사용가능 한지 분석

    현재 GPU


    NVIDIA GeForce GTX 1050 Ti


    일반 사양:


    VRAM: 4GB


    아키텍처: Pascal


    CUDA 지원: 가능


    LLM 구동: 소형~중형 모델까지 가능


    VRAM 기준 LLM 가능 범위

    모델 크기 필요 VRAM (대략) 사용 가능 여부

    1B ~ 3B 2~4GB ✅ 매우 원활

    7B (Q4) 4~6GB ⚠ 제한적 가능

    8B (Q4) 5~6GB ❌ 거의 불가능

    13B 이상 10GB+ ❌ 불가능

    실제 사용 가능한 모델 (1050 Ti 기준)

    가장 안정적

    Phi-3 mini (3.8B)


    VRAM: 약 3~4GB


    속도: 빠름


    품질: 준수


    추천도: ⭐⭐⭐⭐⭐


    명령:


    ollama run phi3


    첨부 파일을 스킨보드에 구성 PDF보기( W:\g5\skin\board\BS4-Basic-Webzine_11q_pdf_php82\view.skin.php + view_pdf.php구성)



    관련자료

    댓글 0
    등록된 댓글이 없습니다.

    최근글


    새댓글