AI/연습

ollama를 활용한 로컬에서 LLM 사용하기(약 10분)

파이어MAN 2025. 3. 21. 19:46

이번에는 ollama를 이용하여

로컬에서 오픈소스 모델을 테스트하는 연습니다.

 

 

1.Ollama 설치

https://ollama.com/

 

Ollama

Get up and running with large language models.

ollama.com

Ollama를 접속하여 설치를 합니다.


 

2.모델설치

사용할 모델은 아래의 이용가능한 모델 중에서 

사용가능한 모델을 확인하고 다운로드에 있는 명령어를 실행하여 설치합니다.

https://github.com/ollama/ollama

 

설치화면


 

3. 모델에 질문하기

질문을 하면 바로 아래에 답변을 볼 수 있습니다.