- This project is only released on GitHub under the MIT license, free and open-source for learning purposes.
- Luma API 支持视频生成、支持携带参考图
- 简化部署流程,支持 docker-compose、docker
- [] 提供符合 OpenAI 格式的接口标准化服务,支持流式、非流输出内容
- [] 自动保活
- [] 支持自定义 OpenAI Chat 返回内容格式,基于 Go Template 语法
- [] 适配 chat-next-web 等前端项目
- [] 适配 New API 等中转项目
http://localhost:8000/swagger/index.html
环境变量 | 说明 | 默认值 |
---|---|---|
COOKIE | 上图获取的 luma 账号的 cookie | 空 |
BASE_URL | Luma 官方请求 API URL |
https://internal-api.virginia.labs.lumalabs.ai |
PROXY | Http 代理 | 空 |
PORT | 开放端口 | 8000 |
ROTATE_LOGS | 日志是否按天轮转 | 是 |
LOG_DIR | 日志输出路径 | ./logs |
DEBUG | 是否开启 Debug 日志 | 否 |
PPROF | 是否开启 Pprof 性能分析,开启后 8005 端口使用 | 否 |
本教程提供如何使用特定的环境变量及端口映射来运行一个Docker容器的分步指导。为了本指南的目的,敏感信息如SQL名称、密码和IP地址将被替换为占位符。
docker run --name suno-api -d -p 8000:8000 \
-e COOKIE=xxxx \
sunoapigo/suno-api
docker-compose deployment
docker-compose pull && docker-compose up -d
docker-compose.yml
version: '3.2'
services:
sunoapi:
image: lumaapi/luma-api:latest
container_name: luma-api
restart: always
ports:
- "8000:8000"
volumes:
- ./logs:/logs
environment:
- COOKIE=
MIT © Luma API
此项目开源于GitHub ,基于MIT协议且免费,没有任何形式的付费行为!如果你觉得此项目对你有帮助,请帮我点个Star并转发扩散,在此感谢你!