17173 > 游戏资讯 > 官方公告 > 正文

《诡秘推理》本地 LLM 替换指南,打造你专属的对话体验!

2026-03-18 19:50:21 神评论
17173 新闻导语

《诡秘推理》本地LLM替换指南:教你如何连接本地大模型,打造个性化、私密且响应更快的推理对话体验!详细步骤图文并茂。

如果说逻辑推理是《诡秘推理》的骨架,那么 AI 对话则是它血肉的其中一个重要的组成。为了满足玩家们对推理沉浸感的极致追求,我们一直保持着系统的开放性——你不仅可以依赖在线 API,更可以将游戏连接至你本地部署的大模型。通过简单的配置,你可以彻底解除对话的“限制”,获得更具个人风格、更私密且响应更迅速的办案体验。

以下是详细的本地模型接入步骤:

使用说明

希望玩家们在通关之后,再探索此功能。

此功能的目的:

能够获得更丰富个性化的体验。

能够在不连接开发者服务器的情况下运行游戏。

能够在无联网状态下运行游戏。

此功能的风险:

不能够保证玩家自己选择的大模型能够顺利的和游戏配合,因为模型的能力各有差异、响应格式不尽相同。

在线大模型接入指南(简约版)
  1. 以Deepseek为例

  2. 进入Deepseek API 官网

  3. 认证、充值、并创建API key,复制token

  4. 进入游戏,打开游戏设置,进入自定义大模型配置页面

  5. 在model处填写:deepseek-chat

  6. 在host处填写:

  7. 在token处填写:(在官网上复制的token,通常以sk开头)

  8. 进行四个测试,并观察到窗口中提醒测试成功。

  9. 提醒,deepseek的服务也并非是一直稳定的,也会遇到不能使用的时候。

  10. 测试通过后,启用自定义大模型。

在线大模型接入指南(图文详细版)
  1. 以Deepseek为例

  2. 进入Deepseek API 官网

  3. 认证、充值、并创建API key,复制token

    据估计,一次请求的价格不到0.001元

    sk开头的token,这个要保存好。如果丢失了,删除旧的,重新创建即可。

  4. 进入游戏,打开游戏设置,进入自定义大模型配置页面

    在model处填写:deepseek-chat

    在token处填写:(在官网上复制的token,通常以sk开头)

    在host处填写:

    这些参数都是用来调整大模型的输出风格的,可以不做修改,保留默认值。

    1. Frequency Penalty

    2. Presence Penalty

    3. Temperature

    4. TopP

  5. 进行测试,并得到测试通过的提示

    一共有4个测试

    连通性测试,检测是否能够与大模型正常连接、对话

    工具测试,检测对模型是否具备function call功能

    简单对话和复杂对话,模拟游戏内环境进行对话测试

    提醒,deepseek的服务也并非是一直稳定的,也会遇到不能使用的时候。

6. 启用自定义大模型

测试通过之后可以使用自定义大模型

点击启用后,回到游戏中与NPC对话就会使用自定义的大模型了

7. 遇到任何问题都可以回到默认大模型

本地部署大模型接入指南
  1. 寻找适合的大模型,支持function call,无思维链,参数推荐30b以上

  2. 接下来以为例子。(测试机:CPU i5-14600K + 显卡4070 + 内存32G)

  3. 在命令行中,使用:ollama run alibayram/Qwen3-30B-A3B-Instruct-2507

  4. 等待ollama下载完成

  5. 进入游戏,进入自定义大模型设置页面

  6. 在host处填写:

  7. 在model处填写:alibayram/Qwen3-30B-A3B-Instruct-2507

  8. 在token处填写:ollama

  9. 进行4项测试,确保测试通过。

  10. 点击使用自定义大模型,接下来游戏内就会使用此大模型了。

如果遇到任何问题,点击使用默认大模型,进行恢复。

接入在线Embedding模型
  1. 寻找合适的在线Embedding模型

  2. 接下来以谷歌为例子

  3. 打开

  4. 申请apikey

  5. 进入游戏,进入自定义大模型设置页面,进入Embedding设置页面

  6. 在host处填写:

  7. 在model处填写:models/gemini-embedding-001

  8. 在token处填写:xxxx(你的api key)

  9. 在Length处填写:3072

  10. 在下拉框处选择 Google

  11. 进行测试,等待方框显示测试成功

  12. 进行创建知识库,需要等待数分钟

  13. 点击使用自定义Embedding模型,接下来游戏内就会使用此embedding模型了。

  14. 如果遇到任何问题,点击使用默认Embedding模型,进行恢复。

接入本地Embedding模型
  1. 寻找合适的Embedding模型。

  2. 接下来以Qwen3-Embedding-0.6B为例子

  3. 在命令行中,使用:ollama run ZimaBlueAI/Qwen3-Embedding-0.6B:Q8_0

  4. 等待ollama下载完成

  5. 进入游戏,进入自定义大模型设置页面,进入Embedding设置页面

  6. 在host处填写:

  7. 在model处填写:ZimaBlueAI/Qwen3-Embedding-0.6B:Q8_0

  8. 在token处填写:ollama

  9. 在Length处填写:1024

  10. 在下拉框处选择Ollama

  11. 进行测试

  12. 进行创建知识库,需要等待数分钟

  13. 点击使用自定义Embedding模型,接下来游戏内就会使用此embedding模型了。

  14. 如果遇到任何问题,点击使用默认Embedding模型,进行恢复。

【来源:steam】
我想了解这个游戏:
官网 专区 下载 礼包
关于诡秘推理,本地LLM,AI对话,大模型,Deepseek,Ollama,Embedding模型,推理游戏,API配置,自定义模型的新闻
亲爱的 17173 玩家们~我们正在打磨平台的找游戏功能,想听听你平时是怎么筛选、导航找游戏的?你的真实习惯和偏好,能让后续找游戏更顺手哦!立即点击填写问卷 参与问卷