使用方法
本文介绍 DeepRead 的推荐使用流程,帮助你从文章下载到 AI 问答快速上手。
快速开始
- 打开 DeepRead,进入
下载中心。DeepRead的启动速度较慢,通常会在10秒~30秒,请耐心等待。
- 输入 WordPress 分类 URL。
- 设置知识库名称(建议使用站点名或主题名)。
- 设置下载并发数后,点击下载。
- 下载完成后,进入
AI 对话 选择刚创建的知识库开始提问。
典型工作流
(1) 批量下载文章
- 使用分类页 URL
https://example.com/category/your-category/,便于批量采集。
- 首次使用建议先小批量测试,确认字段和内容符合预期。
- 如果目标站点较慢,先降低并发,成功率更高。
(2) 管理本地知识库
- 每个主题建议使用独立知识库别名,方便后续检索。
- 在文章管理中可搜索标题、预览 Markdown 内容、定位图片文件。
- 定期清理无用知识库,保持检索结果更聚焦。
(3) AI 问答与深度阅读
- 选择一个知识库进行问答。
- 提问建议包含明确范围,例如“基于 XX 分类文章,总结 3 个核心观点”。
- 对复杂问题建议分步提问:先摘要,再追问细节与证据来源。
(4) 参数与环境配置
在 系统设置 中配置:
- 下载文件夹:下载的文章和图片会保存在这个文件夹下,无特殊原则的话,可以保持默认值
- 跳过已下载:如果检测到一篇文章已经在本地存在,则跳过下载,可以降低目标服务器压力和节省网络流量
- 使用中国大陆 AI 模型下载镜像:如果你身处中国大陆境内,该app会下载AI大模型到本地,建议开启“使用中国大陆 AI 模型下载镜像”提升下载速度,如果你身在中国境外,请不要开启
- 并发下载数:理论上该值越大则下载效率越高,但由于目标网站往往有限速探测,有时候反而并发太高会导致下载失败,建议保持在1~3之间,1是最稳妥的
- 最小和最大请求延迟:指的是每次下载文章的间隔时间,为了尽可能模拟随机下载行为,每次间隔时间会在“最小值”和“最大值”之间随机选择
- 每页文章数:每次请求从目标网站下载的文章数,需要在效率和目标网站压力之间取得平衡,该值越小越容易下载,但下载效率越低,建议保持默认值
- 跳过阈值:下载的过程中,当检测到连续N篇文章是早前已经被下载到本地的,那么就停止本次下载行为,有助于降低目标服务器的压力
- LLM API Key:大模型服务器的密钥 (目前仅支持 DeepSeek)
- 文档检索数:当进行AI问答的时候,AI会寻找跟答案最相关的N篇本地文章作为参考,该值越大则AI越容易找到相关内容,但也会增加AI的思考时间
- 代理服务器:当你所处的网络环境极端苛刻,比如无法访问AI模型或者无法访问目标网站,你可以设置该值来中转流量
建议:
- 首次配置后先做 1-2 条短问答,确认连通性和响应速度。
- 若响应慢,优先检查模型服务状态与网络连接。
(5) 许可证激活
- 在
许可证管理 页面输入许可信息进行激活。
- 可以查看已绑定设备列表。
- 更换设备前建议先在旧设备解除绑定。
高效使用建议
- 将“下载”与“问答”分开批次处理,避免一次性加载过多资料。
- 对关键结论,建议回到原文进行交叉核对。