이번에는 ollama를 이용하여
로컬에서 오픈소스 모델을 테스트하는 연습니다.
Ollama
Get up and running with large language models.
ollama.com
Ollama를 접속하여 설치를 합니다.
사용할 모델은 아래의 이용가능한 모델 중에서
사용가능한 모델을 확인하고 다운로드에 있는 명령어를 실행하여 설치합니다.
https://github.com/ollama/ollama
설치화면
질문을 하면 바로 아래에 답변을 볼 수 있습니다.
Ollama를 이용한 LLM 로컬 채팅 웹 서버 구축하기 (0) | 2025.03.21 |
---|