로컬에서 DeepSeek R1 사용하기 (feat. Ollama, 8b or 14b)

최근 핫한 DeepSeek R1을 로컬에서 사용해보기~

로컬에서 DeepSeek R1 사용하기 (feat. Ollama, 8b or 14b)

최근 핫한 DeepSeek R1을 로컬에서 사용해보기

  • Ollama, Open Web UI를 사용
    기본적으로 설치는 brew를 사용한다.

PC 환경

  • Mac Mini 2024 깡통
    • Apple M4 칩
    • 램 16GB

Ollama 설치 및 실행

우선 Ollama는 오픈소스 LLM을 로컬 PC에서 쉽게 실행할 수 있게 해주는 툴이다.
Llama 3, DeepSeek 등 여러 LLM을 쉽게 로컬에서 돌릴 수 있다.

Ollama는 쉽게 말해서 백엔드 서버이다.
UI를 기본적으로는 제공하지 않아 별도의 UI 툴을 사용하여 Ollama와 연결시켜야한다.

$ brew install --cask ollama

$ ollama serve

다음 명령어로 설치, 실행이 가능하다.

DeepSeek-R1 설치

Ollama DeepSeek-R1
해당 링크에서 딥시크 R1에 관련된 명령어 및 정보를 볼 수 있다.

지금은 DeepSeek-r1:14b 모델을 사용한다.

$ ollama run deepseek-r1:14b

명령어를 실행하게 되면 설치되어있지 않다면 설치 후 LLM이 실행이 된다.

Open Web UI 설치

Pip를 이용해서 설치하는 방법이 Docs에는 나와있지만 Docker를 이용하면 더 쉽다.

$ docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

http://127.0.0.1:3000/ 로 접속해준다.

회원가입, 로그인 등을 진행해주고

다음과 같은 UI가 나오면 성공이다.~

성능 테스트

성능 테스트는 mactop를 이용했다.

$ brew install mactop
$ sudo mactop

간단한 질문 등을 해보면

CPU는 거의 사용하지 않고 GPU, Memory를 거의 풀로 사용하는것을 볼 수 있다.

대략 1분~2분 사이의 속도가 걸렸다.

생각보다 응답 속도가 느려서
8b를 사용해도 좋을것 같다.

8b or 14b

DeepSeek github에 벤치마크 데이터가 나와있는데

또한 다른 글들을 보면

요약해보자면

  • 가벼운 모델, 간단하고 실용적인 솔루션 -> 8b
  • 좀 더 무거운 모델, 추상적이고 복잡한 아이디어 -> 14b
    가 될것 같다.
$ ollama run deepseek-r1:8b

로 바로 설치도 가능하니 필요한 상황에 따라 선택하면 좋을것 같다.

사용하는 리소스 자체엔 큰 차이는 없지만 (약간 메모리 덜쓰는??)
응답 속도는 체감될 정도로 확 빨라진게 보인다!

Mac Mini 깡통이면 8b가 딱 현실적인 사이즈로 보인다!