티스토리 뷰
개요
- 대부분의 개발자가
OpenAI API
로 LLM을 이용한 개발에 입문한다. OpenAI API는ChatGPT
와는 별개로 작동하며 최신 모델인GPT-4 Turbo
(현재 2023년 12월까지 학습된gpt-4-turbo-2024-04-09
와 동일)을 이용할 수 있다. - OpenAI API를 이용하는 개발자들은 ChatGPT와 같은 프론트엔드의 필요성을 느끼는데, 이번 글에서 소개하는
Lobe Chat
이 바로 OpenAI API를 ChatGPT처럼 사용하게 해주는 프론트엔드 역할을 오픈 소스로 제공한다. 내 경우 로컬에 설치하여 상시로 편리하게 이용한다. - Lobe Chat의 장점은 OpenAI API 뿐만 아니라 전세계 거의 대부분의 모델에 대한 통합 프론트엔드를 제공한다는 것이다. API Key만 입력하면 바로 통일된 UI로 편리하게 이용할 수 있어 추천한다.
Lobe Chat 설치
- Lobe Chat은 Docker 이미지를 제공하기 때문에 매우 편리하게 설치할 수 있다. 별도의 데이터베이스를 요구하지 않으며 서비스 실행 중 차지하는 메모리 용량은 150MB 내외로 가볍다.
$ mkdir lobe-chat
$ cd lobe-chat
# Docker Compose 파일 작성
$ nano docker-compose.yml
version: '3.8'
services:
lobe-chat:
image: lobehub/lobe-chat:latest
container_name: lobe-chat
restart: always
ports:
- '3210:3210'
environment:
OPENAI_API_KEY: {your-openai-api-key}
ACCESS_CODE: {your-password}
# Lobe Chat 서비스 설치 및 실행
$ docker-compose up -d
Lobe Chat 실행
- 웹 브라우저에서
http://localhost:3210
으로 접속하면 Lobe Chat을 이용할 수 있다.
참고 글
댓글
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- Kendo UI Web Grid
- MySQL
- 자전거
- 태그를 입력해 주세요.
- CentOS
- 로드바이크
- kotlin
- Eclipse
- Spring Boot
- JavaScript
- 평속
- jpa
- jsp
- maven
- 구동계
- chrome
- Docker
- graylog
- node.js
- 로드 바이크
- bootstrap
- Spring MVC 3
- JHipster
- spring
- Tomcat
- Kendo UI
- jstl
- DynamoDB
- java
- 알뜰폰
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함