AI/연습
ollama를 활용한 로컬에서 LLM 사용하기(약 10분)
파이어MAN
2025. 3. 21. 19:46
이번에는 ollama를 이용하여
로컬에서 오픈소스 모델을 테스트하는 연습니다.
1.Ollama 설치
Ollama
Get up and running with large language models.
ollama.com
Ollama를 접속하여 설치를 합니다.
2.모델설치
사용할 모델은 아래의 이용가능한 모델 중에서
사용가능한 모델을 확인하고 다운로드에 있는 명령어를 실행하여 설치합니다.
https://github.com/ollama/ollama
설치화면
3. 모델에 질문하기
질문을 하면 바로 아래에 답변을 볼 수 있습니다.