智能体助手(Knowlify AI)是“第二大脑计划”的一部分,该工具的目标是将互联网上主流格式的资料转化成AI可以理解的语料库,然后借助于AI的能力快速提取关键信息,并跟AI一起结伴思考和决策,使得我们可以快速对某一个领域的知识有深刻的洞见。最适合的场景是“行业调研”和“投资决策”。

本软件支持 Windows,Linux,macOS系统,并区分CPU版本和GPU版本(仅NVIDIA显卡)。

该软件会在本地计算机运行语音识别模型,模型需要使用3GB内存。
所以,对计算机配置的最低要求是
在过往的测试表现中,测试机 CPU AMD Ryzen 7 PRO 5850U (16 Core) @ 1.90 GHz + 内存 48G + 集成显卡(1G显存) 的电脑上,
在测试机 Intel(R) Xeon(R) E3-1270 V2 (8) @ 3.90 GHz + 内存 16 GB + NVIDIA RTX A2000(8G显存)的服务器上,
多媒体转录,即音视频转文本,使用该功能可以让你从任意音频和视频文件中识别出文本,使得可以做文字搜索,或者直接通过AI建成智能体,从而快速提升从音频和视频中获取知识的效率。
从B站或者油管上看到非常好的视频,但是非常长,或者博主的讲解速度非常慢,很难有耐心或足够的时间整个看完。或者买了网盘上的一大堆音视频的资料包,想要快速从中寻找到自己想要的内容,但是无从下手。

请移步这里 查看。
本软件支持批量转录

可选参数有
D:\folder-1\file-1.mp3,那么转录的结果将保存在 D:\folder-1\file-1.txt。 如果你有2个文件需要转录,他们分别在D:\folder-1\file-1.mp3和D:\folder2\file-2.mp3,那么他们的转录结果也将分别保存为D:\folder-1\file-1.txt和D:\folder2\file-2.txt;操作步骤

对每个任务,在“操作”列里的按钮分别是:详情,取消,暂停,恢复。
点击某个任务的详情后,将看到每个文件的转录进展和错误信息

前面提到过有些功能是需要依赖于“大语言模型(简称LLM)”的,这里就是配置LLM的位置,我们以硅基流动的服务为例,点击API密钥,将密钥复制过来填入到“API Key”里面,“API 地址”填写为 “https://api.siliconflow.cn” ,“模型名称”则是从硅基流动的模型广场里找到的模型的名称,比如 “ deepseek-ai/DeepSeek-V3.2-Exp ” ,点击“保存”后就可以在转录的时候自动发挥作用了(保存后点击“检测”可以检测模型是否可用)。如果没有设置LLM参数,那么软件执行的时候将会自动跳过需要LLM的步骤。


目前支持的大模型供应商有
| 供应商 | 是否支持 |
|---|---|
| OpenAI | ✅ |
| Gemini | ✅ |
| Anthropic | ✅ |
| xAI | ✅ |
| SiliconFlow | ✅ |
| Moonshot | ✅ |
| DeepSeek | ✅ |
| Ollama | ✅ |
| 其他兼容OpenAI接口风格的供应商 | ✅ |
| 参数 | DeepSeek-V3.2-Exp | GPT-5.1 | GPT-4.1 | Gemini-2.5-Pro | Claude-Sonnet-4.5 |
|---|---|---|---|---|---|
| 上下文窗口大小(tokens) | 160k | 400k | 1M | 1M | 200k(实验性支持1M) |
| 最大输出量(tokens) | DEFAULT: 32K ; MAXIMUM: 64K | 128k | 32k | 64k | 64k |
| 输入价格(Per 1M tokens) | ¥2.0 ($ 0.28) | $1.25 | $2.0 | $1.25, prompts <= 200k tokens ; $2.50, prompts > 200k tokens | $3.0, prompts <= 200k tokens ; $6.0, prompts > 200k tokens |
| 输出价格(Per 1M tokens) | ¥3.0 ($ 0.42) | $10.0 | $8.0 | $10.00, prompts <= 200k tokens ; $15.00, prompts > 200k | $15.0, prompts <= 200k tokens ; $22.50, prompts > 200k tokens |
重点参数解释
1M窗口的模型。如果大模型的窗口小于我们的文本,那么就会失败,使得转录的结果仅保持原始形式的文本。DeepSeek-V3.2-Exp。
订阅的费用仅是本软件的使用费,不包括用户对大模型平台的使用费,用户可以在本软件中对接任何大模型平台的服务,在他们的平台中单独计费。