Cline home page
GitHub
Discord
Install Cline
Install Cline
Search...
Search...
Navigation
Running Models Locally
LM Studio
Getting Started
초보 코더를 위하여
Cline 설치
개발 필수 요소 설치
모델 선택 가이드
우리가 가장 좋아하는 기술 스택
Cline의 작업 관리
컨텍스트 관리
Cline이란 무엇인가요?
Improving Your Prompting Skills
프롬프트 엔지니어링 가이드
Cline 메모리 뱅크
Features
Auto approve
체크포인트
Cline rules
드래그 앤 드롭
계획 및 실행
워크플로
메시지 편집
@ Mentions
Slash Commands
Commands & Shortcuts
Exploring Cline's Tools
Cline 도구 참조 가이드
새 작업 도구
원격 브라우저 지원
Enterprise Solutions
클라우드 제공업체 통합
사용자 지정 지침
MCP 서버
보안 문제
MCP Servers
MCP 개요
GitHub에서 MCP 서버 추가
MCP 서버 구성
원격 서버에 연결
MCP 쉽게 사용하기
MCP 서버 개발 프로토콜
MCP 전송 메커니즘
Provider Configuration
Anthropic
AWS Bedrock
AWS Bedrock (프로필 인증 사용)
GCP Vertex AI
LiteLLM 및 Cline (Codestral 사용)
VS Code 언어 모델 API
xAI (Grok)
Mistral
DeepSeek
Ollama
OpenAI
OpenAI 호환
OpenRouter
Requesty
Running Models Locally
먼저 읽어보세요
LM Studio
Ollama
More Info
원격 측정
On this page
🤖 Cline과 함께 LM Studio 설정하기
📋 전제 조건
🚀 설정 단계
1. LM Studio 설치
2. LM Studio 실행
3. 모델 다운로드
4. 서버 시작
5. Cline 구성
⚠️ 중요 참고 사항
🔧 문제 해결
Running Models Locally
LM Studio
Copy page
Cline과 함께 로컬 AI 모델 실행을 위한 LM Studio 설정 빠른 가이드입니다.
🤖 Cline과 함께 LM Studio 설정하기
Cline과 함께 LM Studio를 사용하여 로컬에서 AI 모델을 실행합니다.
📋 전제 조건
AVX2를 지원하는 Windows, macOS 또는 Linux 컴퓨터
VS Code에 Cline 설치됨
🚀 설정 단계
1. LM Studio 설치
lmstudio.ai
방문
운영 체제에 맞게 다운로드 및 설치
2. LM Studio 실행
설치된 애플리케이션 열기
왼쪽에 네 개의 탭이 표시됩니다.
채팅
,
개발자
(서버를 시작할 위치),
내 모델
(다운로드한 모델이 저장되는 위치),
검색
(새 모델 추가)
3. 모델 다운로드
“검색” 페이지 찾아보기
선호하는 모델 선택 및 다운로드
다운로드가 완료될 때까지 기다립니다.
4. 서버 시작
“개발자” 탭으로 이동합니다.
서버 스위치를 “실행 중”으로 전환합니다.
참고: 서버는
http://localhost:1234
에서 실행됩니다.
5. Cline 구성
VS Code 열기
Cline 설정 아이콘 클릭
API 공급자로 “LM Studio” 선택
사용 가능한 옵션에서 모델 선택
⚠️ 중요 참고 사항
Cline과 함께 사용하기 전에 LM Studio를 시작합니다.
LM Studio를 백그라운드에서 실행 상태로 유지합니다.
첫 번째 모델 다운로드는 크기에 따라 몇 분 정도 걸릴 수 있습니다.
모델은 다운로드 후 로컬에 저장됩니다.
🔧 문제 해결
Cline이 LM Studio에 연결할 수 없는 경우:
LM Studio 서버가 실행 중인지 확인합니다(개발자 탭 확인).
모델이 로드되었는지 확인합니다.
시스템이 하드웨어 요구 사항을 충족하는지 확인합니다.
먼저 읽어보세요
Ollama
Assistant
Responses are generated using AI and may contain mistakes.