안녕하세요~!
오늘은 Ollama를 좀 더 편하게 사용하기 위해 Open WeubUI를 설치해보려고 합니다.
사용성이 어느정도 되는지 해보고 더 빌드를 해보면 이해가 더 빨리 될 수도 있을거 같아서
일단 그냥 해보기로함
Open WebUI 공홈은 아래 주소입니다.
🏡 Home | Open WebUI
Open WebUI is an extensible, feature-rich, and user-friendly self-hosted WebUI designed to operate entirely offline. It supports various LLM runners, including Ollama and OpenAI-compatible APIs.
docs.openwebui.com
일단 ollama가 없다면 먼저 설치해두면 편할수도? (나는 이미 설치하였기 때문)
2024.05.06 - [LLM] - [Ollama] Ollama 설치해보기~!
[Ollama] Ollama 설치해보기~!
안녕하세요 ~! 오늘은 Ollama 설치에 대한 간단한 설치 방법을 소개해보려고 합니다. 설치는 아래 주소로 들어가서 진행하면됩니다.https://ollama.com/ OllamaGet up and running with large language models.ollam
allispendabout.tistory.com
내가 진행한 순서는 아래와 같음
설치 순서
1. 도커 설치하기
일단 설치를 위해서 Docker를 설치해야한다고해서 이번엔 Docker 공홈으로 ㄱㄱ
- 사용하는 OS에 맞추어서 다운 받으면 됩니다.
https://www.docker.com/products/docker-desktop/
Docker Desktop: The #1 Containerization Tool for Developers | Docker
Docker Desktop is collaborative containerization software for developers. Get started and download Docker Desktop today on Mac, Windows, or Linux.
www.docker.com
설치 후 재시작 - 일반 설정으로 지정하였음
설치가 다되면 아래와 같은 화면이 나옴
나는 구글계정으로 가입을 진행하였고 설치가 끝나면 아래와 같은 화면이 나온다.
2. 명령 프롬프트(cmd) 열어서 아래 명령어 실행
공홈 Quick Start with Docker 에서 나와있음
Ollama 가 설치되어 있다면 도커 설치 후 커맨드 창을 열어서 아래 명령어를 실행합니다.
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
그러면 아래 처럼 계속 뭐를 다운 받음
설치가 끝나면 아래처럼 컨테이너랑 이미지에 들어가면 아래와 같이 나온다.
3. 컨테이너에서 포트에 있는 체크박스를 누르거나 크롬 열어서 http://localhost:3000/ 입력하면
아래 페이지가 나온다.
체크박스에서 모델 선택하고 해보니 결과는 이렇게 나오고 intel 외장 그래픽으로 연결되지는 않는다.
그래서 현재 매우 느리다는 크리티컬한 문제가 있음
일단 여기까지 해보고 다음에 다른 기능들에 대해서도 알게되면 공유하도록 하겠습니다.
그럼 다음글에서 봐요~!

'LLM > Open WebUI' 카테고리의 다른 글
[Open WebUI] Open WebUI Documents 기능 사용해보기~! (0) | 2024.05.14 |
---|---|
[Open WebUI] Open WebUI Prompts 기능 사용해보기~! (0) | 2024.05.13 |