SW 개발
Lobe Chat, 통합 LLM 프론트엔드 프레임워크 설치하기
지단로보트
2024. 4. 20. 19:30
개요
- 대부분의 개발자가
OpenAI API
로 LLM을 이용한 개발에 입문한다. OpenAI API는ChatGPT
와는 별개로 작동하며 최신 모델인GPT-4 Turbo
(현재 2023년 12월까지 학습된gpt-4-turbo-2024-04-09
와 동일)을 이용할 수 있다. - OpenAI API를 이용하는 개발자들은 ChatGPT와 같은 프론트엔드의 필요성을 느끼는데, 이번 글에서 소개하는
Lobe Chat
이 바로 OpenAI API를 ChatGPT처럼 사용하게 해주는 프론트엔드 역할을 오픈 소스로 제공한다. 내 경우 로컬에 설치하여 상시로 편리하게 이용한다. - Lobe Chat의 장점은 OpenAI API 뿐만 아니라 전세계 거의 대부분의 모델에 대한 통합 프론트엔드를 제공한다는 것이다. API Key만 입력하면 바로 통일된 UI로 편리하게 이용할 수 있어 추천한다.
Lobe Chat 설치
- Lobe Chat은 Docker 이미지를 제공하기 때문에 매우 편리하게 설치할 수 있다. 별도의 데이터베이스를 요구하지 않으며 서비스 실행 중 차지하는 메모리 용량은 150MB 내외로 가볍다.
$ mkdir lobe-chat
$ cd lobe-chat
# Docker Compose 파일 작성
$ nano docker-compose.yml
version: '3.8'
services:
lobe-chat:
image: lobehub/lobe-chat:latest
container_name: lobe-chat
restart: always
ports:
- '3210:3210'
environment:
OPENAI_API_KEY: {your-openai-api-key}
ACCESS_CODE: {your-password}
# Lobe Chat 서비스 설치 및 실행
$ docker-compose up -d
Lobe Chat 실행
- 웹 브라우저에서
http://localhost:3210
으로 접속하면 Lobe Chat을 이용할 수 있다.