《诡秘推理》本地 LLM 替换指南,打造你专属的对话体验!
《诡秘推理》本地LLM替换指南:教你如何连接本地大模型,打造个性化、私密且响应更快的推理对话体验!详细步骤图文并茂。
如果说逻辑推理是《诡秘推理》的骨架,那么 AI 对话则是它血肉的其中一个重要的组成。为了满足玩家们对推理沉浸感的极致追求,我们一直保持着系统的开放性——你不仅可以依赖在线 API,更可以将游戏连接至你本地部署的大模型。通过简单的配置,你可以彻底解除对话的“限制”,获得更具个人风格、更私密且响应更迅速的办案体验。
以下是详细的本地模型接入步骤:
希望玩家们在通关之后,再探索此功能。
此功能的目的:
能够获得更丰富个性化的体验。
能够在不连接开发者服务器的情况下运行游戏。
能够在无联网状态下运行游戏。
此功能的风险:
不能够保证玩家自己选择的大模型能够顺利的和游戏配合,因为模型的能力各有差异、响应格式不尽相同。
以Deepseek为例
进入Deepseek API 官网
认证、充值、并创建API key,复制token
进入游戏,打开游戏设置,进入自定义大模型配置页面
在model处填写:deepseek-chat
在host处填写:
在token处填写:(在官网上复制的token,通常以sk开头)
进行四个测试,并观察到窗口中提醒测试成功。
提醒,deepseek的服务也并非是一直稳定的,也会遇到不能使用的时候。
测试通过后,启用自定义大模型。
以Deepseek为例
进入Deepseek API 官网
认证、充值、并创建API key,复制token
据估计,一次请求的价格不到0.001元
sk开头的token,这个要保存好。如果丢失了,删除旧的,重新创建即可。



进入游戏,打开游戏设置,进入自定义大模型配置页面
在model处填写:deepseek-chat
在token处填写:(在官网上复制的token,通常以sk开头)
在host处填写:

这些参数都是用来调整大模型的输出风格的,可以不做修改,保留默认值。
Frequency Penalty
Presence Penalty
Temperature
TopP
进行测试,并得到测试通过的提示
一共有4个测试
连通性测试,检测是否能够与大模型正常连接、对话
工具测试,检测对模型是否具备function call功能
简单对话和复杂对话,模拟游戏内环境进行对话测试
提醒,deepseek的服务也并非是一直稳定的,也会遇到不能使用的时候。




6. 启用自定义大模型
测试通过之后可以使用自定义大模型
点击启用后,回到游戏中与NPC对话就会使用自定义的大模型了

7. 遇到任何问题都可以回到默认大模型

寻找适合的大模型,支持function call,无思维链,参数推荐30b以上
接下来以为例子。(测试机:CPU i5-14600K + 显卡4070 + 内存32G)
在命令行中,使用:ollama run alibayram/Qwen3-30B-A3B-Instruct-2507
等待ollama下载完成
进入游戏,进入自定义大模型设置页面
在host处填写:
在model处填写:alibayram/Qwen3-30B-A3B-Instruct-2507
在token处填写:ollama
进行4项测试,确保测试通过。
点击使用自定义大模型,接下来游戏内就会使用此大模型了。
如果遇到任何问题,点击使用默认大模型,进行恢复。
寻找合适的在线Embedding模型
接下来以谷歌为例子
打开
申请apikey
进入游戏,进入自定义大模型设置页面,进入Embedding设置页面
在host处填写:
在model处填写:models/gemini-embedding-001
在token处填写:xxxx(你的api key)
在Length处填写:3072
在下拉框处选择 Google
进行测试,等待方框显示测试成功
进行创建知识库,需要等待数分钟
点击使用自定义Embedding模型,接下来游戏内就会使用此embedding模型了。
如果遇到任何问题,点击使用默认Embedding模型,进行恢复。
寻找合适的Embedding模型。
接下来以Qwen3-Embedding-0.6B为例子
在命令行中,使用:ollama run ZimaBlueAI/Qwen3-Embedding-0.6B:Q8_0
等待ollama下载完成
进入游戏,进入自定义大模型设置页面,进入Embedding设置页面
在host处填写:
在model处填写:ZimaBlueAI/Qwen3-Embedding-0.6B:Q8_0
在token处填写:ollama
在Length处填写:1024
在下拉框处选择Ollama
进行测试
进行创建知识库,需要等待数分钟
点击使用自定义Embedding模型,接下来游戏内就会使用此embedding模型了。
如果遇到任何问题,点击使用默认Embedding模型,进行恢复。






