# 配置文件: 注释里标[必需]的参数必须修改, 其他参数根据需要修改, 但请勿删除 import logging # 消息处理协议适配器 # 目前支持以下适配器: # - "yirimirai": mirai的通信框架,YiriMirai框架适配器, 请同时填写下方mirai_http_api_config # - "nakuru": go-cqhttp通信框架,请同时填写下方nakuru_config msg_source_adapter = "yirimirai" # [必需(与nakuru二选一,取决于msg_source_adapter)] Mirai的配置 # 请到配置mirai的步骤中的教程查看每个字段的信息 # adapter: 选择适配器,目前支持HTTPAdapter和WebSocketAdapter # host: 运行mirai的主机地址 # port: 运行mirai的主机端口 # verifyKey: mirai-api-http的verifyKey # qq: 机器人的QQ号 # # 注意: QQ机器人配置不支持热重载及热更新 mirai_http_api_config = { "adapter": "WebSocketAdapter", "host": "localhost", "port": 8080, "verifyKey": "yirimirai", "qq": 1234567890 } # [必需(与mirai二选一,取决于msg_source_adapter)] # 使用nakuru-project框架连接go-cqhttp的配置 nakuru_config = { "host": "localhost", # go-cqhttp的地址 "port": 6700, # go-cqhttp的正向websocket端口 "http_port": 5700, # go-cqhttp的正向http端口 "token": "" # 若在go-cqhttp的config.yml设置了access_token, 则填写此处 } # [必需] OpenAI的配置 # api_key: OpenAI的API Key # http_proxy: 请求OpenAI时使用的代理,None为不使用,https和socks5暂不能使用 # 若只有一个api-key,请直接修改以下内容中的"openai_api_key"为你的api-key # # 如准备了多个api-key,可以以字典的形式填写,程序会自动选择可用的api-key # 例如 # openai_config = { # "api_key": { # "default": "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx", # "key1": "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx", # "key2": "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx", # }, # "http_proxy": "http://127.0.0.1:12345" # } # # 现已支持反向代理,可以添加reverse_proxy字段以使用反向代理 # 使用反向代理可以在国内使用OpenAI的API,反向代理的配置请参考 # https://github.com/Ice-Hazymoon/openai-scf-proxy # # 反向代理填写示例: # openai_config = { # "api_key": { # "default": "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx", # "key1": "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx", # "key2": "sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx", # }, # "reverse_proxy": "http://example.com:12345/v1" # } # # 作者开设公用反向代理地址: https://api.openai.rockchin.top/v1 # 随时可能关闭,仅供测试使用,有条件建议使用正向代理或者自建反向代理 openai_config = { "api_key": { "default": "openai_api_key" }, "http_proxy": None, "reverse_proxy": None } # api-key切换策略 # active:每次请求时都会切换api-key # passive:仅当api-key超额时才会切换api-key switch_strategy = "active" # [必需] 管理员QQ号,用于接收报错等通知及执行管理员级别命令 # 支持多个管理员,可以使用list形式设置,例如: # admin_qq = [12345678, 87654321] admin_qq = 0 # 情景预设(机器人人格) # 每个会话的预设信息,影响所有会话,无视命令重置 # 可以通过这个字段指定某些情况的回复,可直接用自然语言描述指令 # 例如: # default_prompt = "如果我之后想获取帮助,请你说“输入!help获取帮助”" # 这样用户在不知所措的时候机器人就会提示其输入!help获取帮助 # 可参考 https://github.com/PlexPt/awesome-chatgpt-prompts-zh # # 如果需要多个情景预设,并在运行期间方便切换,请使用字典的形式填写,例如 # default_prompt = { # "default": "如果我之后想获取帮助,请你说“输入!help获取帮助”", # "linux-terminal": "我想让你充当 Linux 终端。我将输入命令,您将回复终端应显示的内容。", # "en-dict": "我想让你充当英英词典,对于给出的英文单词,你要给出其中文意思以及英文解释,并且给出一个例句,此外不要有其他反馈。", # } # # 在使用期间即可通过命令: # !reset [名称] # 来使用指定的情景预设重置会话 # 例如: # !reset linux-terminal # 若不指定名称,则使用默认情景预设 # # 也可以使用命令: # !default <名称> # 将指定的情景预设设置为默认情景预设 # 例如: # !default linux-terminal # 之后的会话重置时若不指定名称,则使用linux-terminal情景预设 # # 还可以加载文件中的预设文字,使用方法请查看:https://github.com/RockChinQ/QChatGPT/wiki/%E5%8A%9F%E8%83%BD%E4%BD%BF%E7%94%A8#%E9%A2%84%E8%AE%BE%E6%96%87%E5%AD%97 default_prompt = { "default": "如果用户之后想获取帮助,请你说“输入!help获取帮助”。", } # 情景预设格式 # 参考值:默认方式:normal | 完整情景:full_scenario # 默认方式 的格式为上述default_prompt中的内容,或prompts目录下的文件名 # 完整情景方式 的格式为JSON,在scenario目录下的JSON文件中列出对话的每个回合,编写方法见scenario/default-template.json # 编写方法请查看:https://github.com/RockChinQ/QChatGPT/wiki/%E5%8A%9F%E8%83%BD%E4%BD%BF%E7%94%A8#%E9%A2%84%E8%AE%BE%E6%96%87%E5%AD%97full_scenario%E6%A8%A1%E5%BC%8F preset_mode = "normal" # 群内响应规则 # 符合此消息的群内消息即使不包含at机器人也会响应 # 支持消息前缀匹配及正则表达式匹配 # 支持设置是否响应at消息、随机响应概率 # 注意:由消息前缀(prefix)匹配的消息中将会删除此前缀,正则表达式(regexp)匹配的消息不会删除匹配的部分 # 前缀匹配优先级高于正则表达式匹配 # 正则表达式简明教程:https://www.runoob.com/regexp/regexp-tutorial.html # # 支持针对不同群设置不同的响应规则,例如: # response_rules = { # "default": { # "at": True, # "prefix": ["/ai", "!ai", "!ai", "ai"], # "regexp": [], # "random_rate": 0.0, # }, # "12345678": { # "at": False, # "prefix": ["/ai", "!ai", "!ai", "ai"], # "regexp": [], # "random_rate": 0.0, # }, # } # # 以上设置将会在群号为12345678的群中关闭at响应 # 未单独设置的群将使用default规则 response_rules = { "default": { "at": True, # 是否响应at机器人的消息 "prefix": ["/ai", "!ai", "!ai", "ai"], "regexp": [], # "为什么.*", "怎么?样.*", "怎么.*", "如何.*", "[Hh]ow to.*", "[Ww]hy not.*", "[Ww]hat is.*", ".*怎么办", ".*咋办" "random_rate": 0.0, # 随机响应概率,0.0-1.0,0.0为不随机响应,1.0为响应所有消息, 仅在前几项判断不通过时生效 }, } # 消息忽略规则 # 适用于私聊及群聊 # 符合此规则的消息将不会被响应 # 支持消息前缀匹配及正则表达式匹配 # 此设置优先级高于response_rules # 用以过滤mirai等其他层级的命令 # @see https://github.com/RockChinQ/QChatGPT/issues/165 ignore_rules = { "prefix": ["/"], "regexp": [] } # 是否检查收到的消息中是否包含敏感词 # 若收到的消息无法通过下方指定的敏感词检查策略,则发送提示信息 income_msg_check = False # 敏感词过滤开关,以同样数量的*代替敏感词回复 # 请在sensitive.json中添加敏感词 sensitive_word_filter = True # 是否启用百度云内容安全审核 # 注册方式查看 https://cloud.baidu.com/doc/ANTIPORN/s/Wkhu9d5iy baidu_check = False # 百度云API_KEY 24位英文数字字符串 baidu_api_key = "" # 百度云SECRET_KEY 32位的英文数字字符串 baidu_secret_key = "" # 不合规消息自定义返回 inappropriate_message_tips = "[百度云]请珍惜机器人,当前返回内容不合规" # 启动时是否发送赞赏码 # 仅当使用量已经超过2048字时发送 encourage_sponsor_at_start = True # 每次向OpenAI接口发送对话记录上下文的字符数 # 最大不超过(4096 - max_tokens)个字符,max_tokens为下方completion_api_params中的max_tokens # 注意:较大的prompt_submit_length会导致OpenAI账户额度消耗更快 prompt_submit_length = 3072 # 是否在token超限报错时自动重置会话 # 可在tips.py中编辑提示语 auto_reset = True # OpenAI补全API的参数 # 请在下方填写模型,程序自动选择接口 # 模型文档:https://platform.openai.com/docs/models # 现已支持的模型有: # # ChatCompletions 接口: # # GPT 4 系列 # "gpt-4-1106-preview", # "gpt-4-vision-preview", # "gpt-4", # "gpt-4-32k", # "gpt-4-0613", # "gpt-4-32k-0613", # "gpt-4-0314", # legacy # "gpt-4-32k-0314", # legacy # # GPT 3.5 系列 # "gpt-3.5-turbo-1106", # "gpt-3.5-turbo", # "gpt-3.5-turbo-16k", # "gpt-3.5-turbo-0613", # legacy # "gpt-3.5-turbo-16k-0613", # legacy # "gpt-3.5-turbo-0301", # legacy # # Completions接口: # "gpt-3.5-turbo-instruct", # # 具体请查看OpenAI的文档: https://beta.openai.com/docs/api-reference/completions/create # 请将内容修改到config.py中,请勿修改config-template.py # # 支持通过 One API 接入多种模型,请在上方的openai_config中设置One API的代理地址, # 并在此填写您要使用的模型名称,详细请参考:https://github.com/songquanpeng/one-api # # 支持的 One API 模型: # "SparkDesk", # "chatglm_pro", # "chatglm_std", # "chatglm_lite", # "qwen-v1", # "qwen-plus-v1", # "ERNIE-Bot", # "ERNIE-Bot-turbo", # "gemini-pro", completion_api_params = { "model": "gpt-3.5-turbo", "temperature": 0.9, # 数值越低得到的回答越理性,取值范围[0, 1] } # OpenAI的Image API的参数 # 具体请查看OpenAI的文档: https://platform.openai.com/docs/api-reference/images/create image_api_params = { "model": "dall-e-2", # 默认使用 dall-e-2 模型,也可以改为 dall-e-3 # 图片尺寸 # dall-e-2 模型支持 256x256, 512x512, 1024x1024 # dall-e-3 模型支持 1024x1024, 1792x1024, 1024x1792 "size": "256x256", } # 跟踪函数调用 # 为True时,在每次GPT进行Function Calling时都会输出发送一条回复给用户 # 同时,一次提问内所有的Function Calling和普通回复消息都会单独发送给用户 trace_function_calls = False # 群内回复消息时是否引用原消息 quote_origin = False # 群内回复消息时是否at发送者 at_sender = False # 回复绘图时是否包含图片描述 include_image_description = True # 消息处理的超时时间,单位为秒 process_message_timeout = 120 # 回复消息时是否显示[GPT]前缀 show_prefix = False # 回复前的强制延迟时间,降低机器人被腾讯风控概率 # *此机制对命令和消息、私聊及群聊均生效 # 每次处理时从以下的范围取一个随机秒数, # 当此次消息处理时间低于此秒数时,将会强制延迟至此秒数 # 例如:[1.5, 3],则每次处理时会随机取一个1.5-3秒的随机数,若处理时间低于此随机数,则强制延迟至此随机秒数 # 若您不需要此功能,请将force_delay_range设置为[0, 0] force_delay_range = [0, 0] # 应用长消息处理策略的阈值 # 当回复消息长度超过此值时,将使用长消息处理策略 blob_message_threshold = 256 # 长消息处理策略 # - "image": 将长消息转换为图片发送 # - "forward": 将长消息转换为转发消息组件发送 blob_message_strategy = "forward" # 允许等待 # 同一会话内,是否等待上一条消息处理完成后再处理下一条消息 # 若设置为False,若上一条未处理完时收到了新消息,将会丢弃新消息 # 丢弃消息时的提示信息可以在tips.py中修改 wait_last_done = True # 文字转图片时使用的字体文件路径 # 当策略为"image"时生效 # 若在Windows系统下,程序会自动使用Windows自带的微软雅黑字体 # 若未填写或不存在且不是Windows,将禁用文字转图片功能,改为使用转发消息组件 font_path = "" # 消息处理超时重试次数 retry_times = 3 # 消息处理出错时是否向用户隐藏错误详细信息 # 设置为True时,仅向管理员发送错误详细信息 # 设置为False时,向用户及管理员发送错误详细信息 hide_exce_info_to_user = False # 每个会话的过期时间,单位为秒 # 默认值20分钟 session_expire_time = 1200 # 会话限速 # 单会话内每分钟可进行的对话次数 # 若不需要限速,可以设置为一个很大的值 # 默认值60次,基本上不会触发限速 # # 若要设置针对某特定群的限速,请使用如下格式: # { # "group_<群号>": 60, # "default": 60, # } # 若要设置针对某特定用户私聊的限速,请使用如下格式: # { # "person_<用户QQ>": 60, # "default": 60, # } # 同时设置多个群和私聊的限速,示例: # { # "group_12345678": 60, # "group_87654321": 60, # "person_234567890": 60, # "person_345678901": 60, # "default": 60, # } # # 注意: 未指定的都使用default的限速值,default不可删除 rate_limitation = { "default": 60, } # 会话限速策略 # - "wait": 每次对话获取到回复时,等待一定时间再发送回复,保证其不会超过限速均值 # - "drop": 此分钟内,若对话次数超过限速次数,则丢弃之后的对话,每自然分钟重置 rate_limit_strategy = "drop" # 是否在启动时进行依赖库更新 upgrade_dependencies = False # 是否上报统计信息 # 用于统计机器人的使用情况,数据不公开,不会收集任何敏感信息。 # 仅实例识别UUID、上报时间、字数使用量、绘图使用量、插件使用情况、用户信息,其他信息不会上报 report_usage = True # 日志级别 logging_level = logging.INFO