Cline과 함께 로컬 AI 모델 실행을 위한 Ollama 설정 빠른 가이드입니다.
ollama run [모델-이름]
ollama run llama2
http://localhost:11434/