forked from tutu329/life-agent
-
Notifications
You must be signed in to change notification settings - Fork 0
/
config.py
35 lines (28 loc) · 1.58 KB
/
config.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
from dataclasses import dataclass, field
# 用于控制prompt长度的参数
@dataclass
class Prompt_Limitation():
toc_max_len:int = 4096 # 返回目录(toc)字符串的最大长度
toc_nonsense_min_len:int = 300 # 返回目录(toc)内容太短从而无法进行总结的长度
# context_max_len * context_max_paragraphs 为截取后发给llm的文字最大长度 (qwen1.5-72b-int4下(--max-model-len=13000 --max-num-seqs=4), 3000*4=12,000容易oom, 但是1000*26=26,000可以)
# 例如搜索结果文本的最大分段长度:
concurrent_para_max_len:int = 25000 # 返回文本(content)字符串的最大长度 (如果文本超过这个长度,则以该长度为单位,进行分段解读,如context_max_len为500,则600字分为500和100两段)
# 例如搜索结果文本的最大分段数:
concurrent_max_paras:int = 1 # 返回文本(content)字符串list的最大长度
concurrent_summary_max_len:int = 1000 # content总结后最大长度(是让llm总结后的长度,llm不一定能完全按要求控制长度)
@dataclass
class Global():
line:str = f'{80 * "-"}\n\n'
llm_url:str = 'http://116.62.63.204:8001/v1'
@dataclass
class Port():
# 顶层应用
flowise:int = 7860
llm_ui: int = 7861
# api转发层
one_api:int = 8002 # flowise等顶层应用可以直接调用:8002/v1的llm_api和m3e_api
# api底层服务
m3e_api:int = 8000 # 由one_api从:8002/v1/embeddings转发到这里
llm_api:int = 8001 # 由one_api从:8002/v1/chat/completions等转发到这里
# 工作环境
jupyter:int = 7862