diff --git a/README.md b/README.md index 5f0ed8f..a2fe1ce 100644 --- a/README.md +++ b/README.md @@ -63,128 +63,6 @@ 欢迎提交 issue 或 pull request 来添加更多的 LLM 库和 API 路径支持。 -## 部署 - -### Docker (推荐) - -```bash -docker run -d -p 3000:3000 --restart always --name free-one-api -v ~/free-one-api/data:/app/data rockchin/free-one-api -``` - -此语句将启动 free-one-api 并指定 `~/free-one-api/data` 为容器的文件存储映射目录。 -你可以在 `http://localhost:3000/` 打开管理页面。 - -### 手动 - -```bash -git clone https://github.com/RockChinQ/free-one-api.git -cd free-one-api - -cd web && npm install && npm run build && cd .. - -pip install -r requirements.txt -python main.py -``` - -你可以在 `http://localhost:3000/` 打开管理页面。 - -## 用法 - -1. 创建一个 channel,按照说明填写配置,然后创建一个新的 key。 - -image - -2. 将 url (e.g. http://localhost:3000/v1 ) 设置为 OpenAI 的 api_base ,将生成的 key 设置为 OpenAI api key。 -3. 现在你可以使用 OpenAI API 来访问逆向工程的 LLM 库了。 - -```curl -# curl example -curl http://localhost:3000/v1/chat/completions \ - -X POST \ - -H "Content-Type: application/json" \ - -H "Authorization: Bearer $OPENAI_API_KEY" \ - -d '{ - "model": "gpt-3.5-turbo", - "messages": [ - { - "role": "system", - "content": "You are a helpful assistant." - }, - { - "role": "user", - "content": "Hello!" - } - ], - "stream": true - }' -``` - -```python -# python example -import openai - -openai.api_base = "http://localhost:3000/v1" -openai.api_key = "generated key" - -response = openai.ChatCompletion.create( - model="gpt-3.5-turbo", - messages=[ - { - "role": "user", - "content": "hello, how are you?" - } - ], - stream=False, -) - -print(response) -``` - -### 配置文件 - -配置文件位于`data/config.yaml` - -```yaml -database: - # SQLite 数据库文件路径 - path: ./data/free_one_api.db - type: sqlite -logging: - debug: false # 是否开启调试日志 -misc: - # acheong08/ChatGPT 适配器的反向代理路径 - # 默认的公共反代可能不稳定,建议自行搭建: - # https://github.com/acheong08/ChatGPT-Proxy-V4 - chatgpt_api_base: https://chatproxy.rockchin.top/api/ -# 随机广告 -# 会随机追加到每个响应的末尾 -random_ad: - # 广告列表 - ad_list: - - ' (This response is sponsored by Free One API. Consider star the project on GitHub: - https://github.com/RockChinQ/free-one-api )' - # 是否开启随机广告 - enabled: false - # 广告出现概率 (0-1) - rate: 0.05 -router: - # 后端监听端口 - port: 3000 - # 管理页登录密码 - token: '12345678' -watchdog: - heartbeat: - # 自动停用渠道前的心跳失败次数 - fail_limit: 3 - # 心跳检测间隔(秒) - interval: 1800 - # 单个渠道心跳检测超时时间(秒) - timeout: 300 -web: - # 前端页面路径 - frontend_path: ./web/dist/ -``` - ## 快速体验 ### Demo diff --git a/docs/zh-CN/Config.md b/docs/zh-CN/Config.md new file mode 100644 index 0000000..fcc5214 --- /dev/null +++ b/docs/zh-CN/Config.md @@ -0,0 +1,44 @@ +# 配置文件 + +配置文件位于`data/config.yaml` + +```yaml +database: + # SQLite 数据库文件路径 + path: ./data/free_one_api.db + type: sqlite +logging: + debug: false # 是否开启调试日志 +misc: + # acheong08/ChatGPT 适配器的反向代理路径 + # 默认的公共反代可能不稳定,建议自行搭建: + # https://github.com/acheong08/ChatGPT-Proxy-V4 + chatgpt_api_base: https://chatproxy.rockchin.top/api/ +# 随机广告 +# 会随机追加到每个响应的末尾 +random_ad: + # 广告列表 + ad_list: + - ' (This response is sponsored by Free One API. Consider star the project on GitHub: + https://github.com/RockChinQ/free-one-api )' + # 是否开启随机广告 + enabled: false + # 广告出现概率 (0-1) + rate: 0.05 +router: + # 后端监听端口 + port: 3000 + # 管理页登录密码 + token: '12345678' +watchdog: + heartbeat: + # 自动停用渠道前的心跳失败次数 + fail_limit: 3 + # 心跳检测间隔(秒) + interval: 1800 + # 单个渠道心跳检测超时时间(秒) + timeout: 300 +web: + # 前端页面路径 + frontend_path: ./web/dist/ +``` \ No newline at end of file diff --git a/docs/zh-CN/README.md b/docs/zh-CN/README.md index 19a651e..7228c09 100644 --- a/docs/zh-CN/README.md +++ b/docs/zh-CN/README.md @@ -1 +1,2 @@ -# Free One API 中文文档 \ No newline at end of file +# Free One API 中文文档 + diff --git a/docs/zh-CN/Setup.md b/docs/zh-CN/Setup.md new file mode 100644 index 0000000..d30a5da --- /dev/null +++ b/docs/zh-CN/Setup.md @@ -0,0 +1,24 @@ +# 安装 + +## Docker (推荐) + +```bash +docker run -d -p 3000:3000 --restart always --name free-one-api -v ~/free-one-api/data:/app/data rockchin/free-one-api +``` + +此语句将启动 free-one-api 并指定 `~/free-one-api/data` 为容器的文件存储映射目录。 +你可以在 `http://localhost:3000/` 打开管理页面。 + +## 手动 + +```bash +git clone https://github.com/RockChinQ/free-one-api.git +cd free-one-api + +cd web && npm install && npm run build && cd .. + +pip install -r requirements.txt +python main.py +``` + +你可以在 `http://localhost:3000/` 打开管理页面。 diff --git a/docs/zh-CN/Usage.md b/docs/zh-CN/Usage.md new file mode 100644 index 0000000..15d340d --- /dev/null +++ b/docs/zh-CN/Usage.md @@ -0,0 +1,59 @@ +# 用法 + +1. 创建一个 channel,填写名称。 + +![add_channel](assets/add_channel.png) + +2. 选择此渠道使用的逆向工程库适配器,填写配置。 + +> 请参考[适配器](/zh-CN/Adapters.md)文档。 + +3. 在 API Key 栏中创建一个新的 key。 + +4. 将 url (e.g. http://localhost:3000/v1 ) 设置为 OpenAI 的 api_base ,将生成的 key 设置为 OpenAI api key。 +5. 现在你可以使用 OpenAI API 来访问逆向工程的 LLM 库了。 + +## 测试 + +```curl +# curl example +curl http://localhost:3000/v1/chat/completions \ + -X POST \ + -H "Content-Type: application/json" \ + -H "Authorization: Bearer $OPENAI_API_KEY" \ + -d '{ + "model": "gpt-3.5-turbo", + "messages": [ + { + "role": "system", + "content": "You are a helpful assistant." + }, + { + "role": "user", + "content": "Hello!" + } + ], + "stream": true + }' +``` + +```python +# python example +import openai + +openai.api_base = "http://localhost:3000/v1" +openai.api_key = "generated key" + +response = openai.ChatCompletion.create( + model="gpt-3.5-turbo", + messages=[ + { + "role": "user", + "content": "hello, how are you?" + } + ], + stream=False, +) + +print(response) +``` diff --git a/docs/zh-CN/_sidebar.md b/docs/zh-CN/_sidebar.md index d436c86..5f4c489 100644 --- a/docs/zh-CN/_sidebar.md +++ b/docs/zh-CN/_sidebar.md @@ -1,2 +1,5 @@ * [首页](/zh-CN/) -* [适配器](/zh-CN/Adapters) \ No newline at end of file +* [部署](/zh-CN/Setup) +* [使用](/zh-CN/Usage) +* [适配器](/zh-CN/Adapters) +* [配置文件](/zh-CN/Config) \ No newline at end of file diff --git a/assets/add_channel.png b/docs/zh-CN/assets/add_channel.png similarity index 100% rename from assets/add_channel.png rename to docs/zh-CN/assets/add_channel.png