SW 개발

Lobe Chat, 통합 LLM 프론트엔드 프레임워크 설치하기

지단로보트 2024. 4. 20. 19:30

개요

  • 대부분의 개발자가 OpenAI APILLM을 이용한 개발에 입문한다. OpenAI APIChatGPT와는 별개로 작동하며 최신 모델인 GPT-4 Turbo(현재 2023년 12월까지 학습된 gpt-4-turbo-2024-04-09와 동일)을 이용할 수 있다.
  • OpenAI API를 이용하는 개발자들은 ChatGPT와 같은 프론트엔드의 필요성을 느끼는데, 이번 글에서 소개하는 Lobe Chat이 바로 OpenAI APIChatGPT처럼 사용하게 해주는 프론트엔드 역할을 오픈 소스로 제공한다. 내 경우 로컬에 설치하여 상시로 편리하게 이용한다.
  • Lobe Chat의 장점은 OpenAI API 뿐만 아니라 전세계 거의 대부분의 모델에 대한 통합 프론트엔드를 제공한다는 것이다. API Key만 입력하면 바로 통일된 UI로 편리하게 이용할 수 있어 추천한다.

Lobe Chat 설치

  • Lobe Chat은 Docker 이미지를 제공하기 때문에 매우 편리하게 설치할 수 있다. 별도의 데이터베이스를 요구하지 않으며 서비스 실행 중 차지하는 메모리 용량은 150MB 내외로 가볍다.
$ mkdir lobe-chat
$ cd lobe-chat

# Docker Compose 파일 작성
$ nano docker-compose.yml
version: '3.8'

services:
  lobe-chat:
    image: lobehub/lobe-chat:latest
    container_name: lobe-chat
    restart: always
    ports:
      - '3210:3210'
    environment:
      OPENAI_API_KEY: {your-openai-api-key}
      ACCESS_CODE: {your-password}

# Lobe Chat 서비스 설치 및 실행
$ docker-compose up -d

Lobe Chat 실행

  • 웹 브라우저에서 http://localhost:3210으로 접속하면 Lobe Chat을 이용할 수 있다.

참고 글