🐹 OpenWebUI에 대해..
Open WebUI는 LLM과 상호작용을 위해 설계된 확장 가능하고 사용자 친화적인 웹 인터페이스이다. 처음에는 Ollama를 위해 만들어져 이름이 Ollama Web UI 이나 최근 OpenAI를 지원하면서 이름이 변경되었다.
Open WebUI는 워크 플로우를 생성할 수 없고 기본적으로 제공하는 ui에서 기능을 사용해야하지만 pipeline은 AI 워크플로우를 구축, 관리, 실행하기 위한 포괄적인 프레임 워크이다.
🐹Setting
컨테이너 및 애플리케이션 실행
Open WebUI
docker run -d -p 2222:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
ghcr.io/open-webui/open-webui:main Docker 이미지 기반으로 컨테이너 실행
- 호스트의 포트 2222에서 컨테이너의 Open Web UI 애플리케이션을 노출
- 데이터를 Docker 볼륨에 저장하여 지속성을 유지
- 컨테이너가 종료되더라도 자동으로 재시작
ollama
curl -fsSL <https://ollama.com/install.sh> | sh # 설치
ollama serve # 실행
ollama pull {model_name} # 모델 가져오기
pipeline
docker run -d -p 9099:9099 --add-host=host.docker.internal:host-gateway -v ./pipelines:/app/pipelines --name pipelines --restart always ghcr.io/open-webui/pipelines:main
ghcr.io/open-webui/pipelines:main Docker 이미지 기반으로 컨테이너 실행
- 호스트의 9099 포트와 컨테이너의 9099 포트를 연결
- 로컬 디렉토리 ./pipelines를 컨테이너 내부 /app/pipelines에 마운트
- host.docker.internal을 통해 호스트와 통신 가능
- 컨테이너가 종료되더라도 자동으로 재시작
OpenWebUI에서 ollama와 pipeline연결
https://pleasestudy-alswldi.tistory.com/325
[OpenWebUI] Pipeline 연결
이전에 openwebui가 무엇인지, 어떻게 실행할 수 있는지 알아봤다.https://pleasestudy-alswldi.tistory.com/324 [OpenWebUI] LLM 웹 인터페이스🐹 OpenWebUI란? Gradio, Streamlit 와 유사하게 AI모델 인터페이스역할을 하
pleasestudy-alswldi.tistory.com
위에서 더 자세하게 다루었다.
Open WebUI에 접속한다.
최초에 로그인 한 계정이 admin 계정이 된다.
admin panel> settings > Connections에 들어간다.
ollama 연결을 위해 Manage Ollama API Connections에 아래를 입력한다.
- docker안에서 ollama를 실행시킨 경우 API URL : http://localhost:11434
- docker 밖에서 ollama를 실행시킨 경우 API UIR : http://{llm_server_ip}:11434
pipeline 연결을 위해 Manage OpenAI API Connections에 아래를 입력한다.
- API URL: http://host.docker.internal:9099
- API Key: 0p3n-w3bu! (초기 defalut 설정)
🐹 서비스 구성 및 연결방식
서비스 구성도
1️⃣ ollama를 도커안에서 실행
2️⃣ ollama를 도커 밖에서 실행
- ollama를 같은 서버에서 도커 밖에 띄울 때
3️⃣ pipeline 설정 시
pipelines/examples/pipelines/rag/llamaindex_ollama_github_pipeline.py at main · open-webui/pipelines
Pipelines: Versatile, UI-Agnostic OpenAI-Compatible Plugin Framework - open-webui/pipelines
github.com
예시와 같이 rag system을 구성한다면 아래와 같이 동작한다.
연결 방식
- Open Web UI 와 Pipeline HTTP를 통해 통신하며, Open Web UI는 Pipeline 서버의 엔드포인트를 호출
- Open web UI 접근
- Open Web UI가 Pipeline에 요청
- Open Web Pipeline이 작업처리
- UI에 결과 표시
- Open web UI와 Ollama
🏡 Home | Open WebUI
Open WebUI is an extensible, feature-rich, and user-friendly self-hosted AI platform designed to operate entirely offline. It supports various LLM runners like Ollama and OpenAI-compatible APIs, with built-in inference engine for RAG, making it a powerful
docs.openwebui.com
https://github.com/open-webui/open-webui/tree/main/docs
open-webui/docs at main · open-webui/open-webui
User-friendly AI Interface (Supports Ollama, OpenAI API, ...) - open-webui/open-webui
github.com
'Internship' 카테고리의 다른 글
RAG 프로젝트 - OpenWebUI 검색 사용 (0) | 2025.03.13 |
---|---|
RAG 프로젝트 - Google Search agent (0) | 2025.03.13 |
[OpenWebUI] Pipeline 연결 (0) | 2024.12.20 |
[OpenWebUI] LLM 웹 인터페이스 (1) | 2024.12.20 |
RAG 시스템 키워드 추출 (1) | 2024.11.27 |