LLM/Open WebUI

[Open WebUI] Open WebUI 로컬 환경에 설치 및 사용해보기~!

lucKipyo 2024. 5. 13. 08:12
728x90
반응형

안녕하세요~! 

 

오늘은 Ollama를 좀 더 편하게 사용하기 위해 Open WeubUI를 설치해보려고 합니다. 

 

사용성이 어느정도 되는지 해보고 더 빌드를 해보면 이해가 더 빨리 될 수도 있을거 같아서 

 

일단 그냥 해보기로함 

 

Open WebUI 공홈은 아래 주소입니다.

https://docs.openwebui.com/

 

🏡 Home | Open WebUI

Open WebUI is an extensible, feature-rich, and user-friendly self-hosted WebUI designed to operate entirely offline. It supports various LLM runners, including Ollama and OpenAI-compatible APIs.

docs.openwebui.com

일단 ollama가 없다면 먼저 설치해두면 편할수도? (나는 이미 설치하였기 때문)

2024.05.06 - [LLM] - [Ollama] Ollama 설치해보기~!

 

[Ollama] Ollama 설치해보기~!

안녕하세요 ~!  오늘은 Ollama 설치에 대한 간단한 설치 방법을 소개해보려고 합니다.  설치는 아래 주소로 들어가서 진행하면됩니다.https://ollama.com/ OllamaGet up and running with large language models.ollam

allispendabout.tistory.com

 

내가 진행한 순서는 아래와 같음

설치 순서

 

1. 도커 설치하기

일단 설치를 위해서 Docker를 설치해야한다고해서 이번엔 Docker 공홈으로 ㄱㄱ

- 사용하는 OS에 맞추어서 다운 받으면 됩니다.

https://www.docker.com/products/docker-desktop/

 

Docker Desktop: The #1 Containerization Tool for Developers | Docker

Docker Desktop is collaborative containerization software for developers. Get started and download Docker Desktop today on Mac, Windows, or Linux.

www.docker.com

설치 후 재시작 - 일반 설정으로 지정하였음

설치가 다되면 아래와 같은 화면이 나옴

 

나는 구글계정으로 가입을 진행하였고 설치가 끝나면 아래와 같은 화면이 나온다.

 

 


2. 명령 프롬프트(cmd) 열어서 아래 명령어 실행

 

공홈 Quick Start with Docker 에서 나와있음 

 

Ollama 가 설치되어 있다면 도커 설치 후 커맨드 창을 열어서 아래 명령어를 실행합니다.

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

 

그러면 아래 처럼 계속 뭐를 다운 받음

설치가 끝나면 아래처럼 컨테이너랑 이미지에 들어가면 아래와 같이 나온다.

 

3. 컨테이너에서 포트에 있는 체크박스를 누르거나 크롬 열어서 http://localhost:3000/ 입력하면

아래 페이지가 나온다.

 

체크박스에서 모델 선택하고 해보니 결과는 이렇게 나오고 intel 외장 그래픽으로 연결되지는 않는다.

그래서 현재 매우 느리다는 크리티컬한 문제가 있음 

일단 여기까지 해보고 다음에 다른 기능들에 대해서도 알게되면 공유하도록 하겠습니다. 

 

그럼 다음글에서 봐요~!

 

728x90
반응형