-
GPT를 내 컴퓨터에 설치하자 with Open-WebUIAI 2024. 11. 4. 22:41반응형
요즘 생성형 AI들이 급격히 발전하며, 다양한 Large Language Model(LLM) 모델이 개발되고 공개되고 있습니다. 하지만 우리가 쉽게 접근할 수 있는 LLM 모델들은 제한적이며, 이를 활용하기 위해서는 특정 환경을 구축해야 합니다. LLM 모델을 사용하는 방법은 여러 가지가 있지만, 사용하기 편리한 Open-WebUI를 활용하는 방법에 대해서 알아보겠습니다.
Open-WebUI의 설치
Open-WebUI를 설치하고 사용하려면 Ollama와 Docker가 필요합니다. Ollama는 다양한 LLM 모델을 사용할 수 있게 해 주는 프로그램이며, Docker는 소프트웨어를 컨테이너라는 독립적인 환경에서 실행할 수 있도록 해주는 플랫폼입니다. 사용 시 Open-WebUI를 쉽게 설치하고 실행할 수 있게 해 줍니다.
※ 설치 방법은 Windows 사용자를 기준으로 설명드리겠습니다.
Ollama의 설치
1. Ollama 웹사이트 접속
Ollama(https://ollama.com) 페이지에 들어갑니다.
2. 다운로드 및 설치
첫 화면의 Download 버튼을 클릭하고 운영체제로 Windows를 선택한 후 Download for Windows 버튼을 눌러 Ollama 프로그 램을 다운로드 합니다.
3. 설치 파일 실행
다운로드한 OllamaSetup.exe 파일을 실행하여 Ollama를 설치합니다. 설치 과정은 매우 간단하여 쉽게 완료하실 수 있습니다.
※ Ollama는 Windows 시작 시 자동으로 실행되므로 별도로 실행할 필요가 없습니다. 하지만 Ollama가 실행 중이 아닐 경우, 명령 프롬프트(cmd)에서 다음 명령어를 입력하여 Ollama를 실행하십시오. 이때 Ollama를 실행한 명령 프롬프트 창은 닫지 않고 그대로 켜 두어야 합니다.
Ollama 실행 명령어 : Ollama serve
Docker의 설치
1. Docker 웹사이트 접속
Docker(https://www.docker.com/) 페이지에 들어갑니다.
2. Docekr 다운로드
메인 페이지에서 Download Docker Desktop → Download for Windows - AMD64를 선택하여 설치 파일을 다운로드 합니 다.
3. 설치 파일 실행
다운로드한 Docker Desktop Installer.exe를 실행하여 설치. 설치는 기본 설정으로 완료하면 됩니다.
※ Docker 실행 시에 로그인이 필요합니다. 계정이 없다면 Docker 페이지에서 회원가입을 하시기 바랍니다.
Open-WebUI 설치
Open-WebUI는 명령어 입력으로 간단히 설치할 수 있습니다. 명령 프롬프트(cmd)에서 다음 명령어를 입력하여 설치합니다.
※ Open-WebUI에 대한 자세한 정보는 Open-WebUI의 GitHub(https://github.com/open-webui/open-webui)를 참고하시기 바랍니다.
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
※ 설치 명령어에서 붉게 표시된 부분은 Docker에서 보이는 이름을 지정하는 부분입니다. 이름을 변경하고 싶다면 해당 부분을 수정해 원하는 이름으로 설정할 수 있습니다.
설치가 완료되면 Docker의 Containers 탭에서 Open-WebUI 컨테이너가 실행 중인 것을 확인할 수 있습니다. 만약 컨테이너가 보이지 않거나 실행되지 않는다면 Docker를 재시작하여 문제를 해결할 수 있습니다.
Open-WebUI 설치를 완료했다면, 이제 GPT를 위한 LLM 모델을 다운로드할 차례입니다. Ollama를 사용하여 모델을 다운로드하는 방법에 대해 알아보겠습니다.
LLM 모델 다운로드 방법
LLM 모델은 Ollama run 명령어를 통해 다운로드할 수 있습니다. 명령 프롬프트(cmd)에 다음과 같이 입력하세요.
Ollama run 모델명
Ollama run은 기본적으로 모델을 실행하는 명령어지만, 해당 모델이 설치되어 있지 않으면 자동으로 다운로드가 진행됩니다. 다운로드가 완료되면 명령 프롬프트 창을 닫고, Open-WebUI에서 해당 모델을 사용할 수 있습니다.
Ollama 페이지에서 모델 다운로드
다양한 LLM 모델을 Ollama 페이지의 'Models' 섹션에서 찾을 수 있습니다. 메인 페이지에서 'Models'로 이동하면 다양한 모델이 나열되어 있으며, 원하는 모델을 클릭하면 상세 정보 페이지로 넘어갑니다. 페이지 상단에 있는 모델명 아래에 해당 모델을 다운로드할 수 있는 명령어가 있으며, 이를 명령 프롬프트(cmd)에서 실행하면 모델 다운로드가 시작됩니다.
※ 다운로드한 모델 리스트 확인 : 명령 프롬프트(cmd)에서 Ollama list
※ 다운로드한 모델 삭제 : 명령 프롬프트(cmd)에서 Ollama rm 모델명
Open-WebUI 실행
Docker를 먼저 실행합니다.
Docker의 Containers 탭에서 Open-WebUI를 찾은 후 Status를 확인합니다. Status가 Running 상태이면 Port(s)의 파란색 숫자를 클릭하면 Open-WebUI가 실행됩니다. 만약 Status 값이 Exited 상태라면 Actions 항목의 ▷(Start) 버튼을 클릭해 Running 상태로 전환 후 Port(s)의 숫자를 클릭하여 실행합니다. 참고로, Status가 Running으로 변경된 직후 정상적인 동작까지는 약간의 시간이 더 걸릴 수 있습니다.
※ Open-WebUI 설치 시 이름을 변경하였다면, 설치 시에 설정한 이름의 컨테이너를 찾아야 합니다.
Open-WebUI를 처음 실행하면 회원가입 화면이 나타납니다. 최초 등록되는 사용자는 관리자 권한을 부여받으며, 이후 가입자는 관리자의 승인이 필요합니다. 가입 절차를 완료한 후 로그인하면 아래와 같은 화면이 표시됩니다.
왼쪽 상단에서 사용할 모델을 선택한 후, Open-WebUI를 이용할 수 있습니다. 사용법은 ChatGPT와 유사하지만, 선택한 LLM 모델에 따라 답변 내용이 달라질 수 있으니 사용 목적에 맞는 모델을 선택하여 사용하시기 바랍니다.
End
반응형