使用DeepSeek在本地电脑打造个人离线AI及知识库教程

在如今这个信息爆炸的时代,传统的知识管理方式早已跟不上步伐。微信收藏夹里的文章堆积如山,查找时却如同大海捞针;飞书文档里的行业报告数不胜数,急需时却难以快速提炼重点;印象笔记的分类越来越复杂,自己都记不清资料放在哪里…… 而 DeepSeek 本地部署与 AI 知识库的结合,就像是给你配备了一个 24 小时待命的智能助手,能让你轻松管理各种知识,让碎片信息变成宝贵的资源。

先表演一波离线翻译文言文

图片[1]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

前期准备工作

共三点,硬件推荐,模型运行环境,下载DeepSeek

硬件配置建议

要想让 DeepSeek 在本地电脑上顺畅运行,硬件配置可是关键。根据模型参数规模和实际运行效果,我给大家整理了几个不同级别的配置方案,大家可以按需选择:

  • 基础版:16GB 内存搭配 RTX4060 显卡,能够流畅运行 7B 参数的模型,适合日常简单的文本处理和知识查询。​
  • 旗舰版:32GB 内存加上 RTX4090 显卡,可以驾驭 14B 参数的模型,处理复杂任务更加得心应手,大大提升创作效率。​
  • 未来版:64GB 内存和 RTX5090 D(32GB 显存),这配置堪称豪华,让你的电脑秒变 “个人 AI 实验室”,轻松运行 32B 参数的模型,满足更高阶的研究和开发需求。

以下是最低要求

  • CPU:最低要求4核
  • GPU:最低要求NVIDIA GTX 1080 或同等,显存4GB最次也要好点的CPU,集显只能带动最低档位的模型
  • 内存:起步DDR4,低要求8GB
  • 硬盘:最低要求500GB SSD,是个电脑它也达标了

天选4

CPU:13th Gen Intel(R) Core(TM) i9-13900H 2.60 GHz(13代i9,14核20线程,睿频5.4GHz)

GPU:NVIDIA GeForce RTX 4060 Laptop GPU(满血RTX4060,显存8GB)

内存:DDR5 5600MHz 16*2(DDR5,5600频率,16GB+16GB)

硬盘:PCL 4.0 1TB 高性能SSD(读5GB/s 写3.5GB/s)

运行8b飞快,有时有点傻,14b比较聪明,处理速度可以接受,32b可以跑,但慢些,没有到无法接受的程度

安装 Ollama

Ollama是一款专注于简化大语言模型本地部署的开源工具,它能让你轻松在本地运行和管理各种大模型。你可以访问Ollama 官网下载安装包,然后按照提示一步步完成安装。安装完成后,通过命令行验证是否安装成功。在命令行中输入ollama -v,如果能正确显示版本信息,就说明安装成功啦!

进入官网:https://ollama.com/,点击下载

图片[2]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

我是Windows环境,下载即可,注意下载链接在某些地区处于屏蔽状态,是属于GitHub的地址,你可以尝试科学上网,更改hosts,镜像站,某些游戏加速器(有的),等方式解决无法下载的问题

图片[3]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

通过百度网盘分享的文件:OllamaSetup.exe (不包新,此包下载于2025.03.30)

1GB大小的exe程序文件

图片[4]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

双击打开安装

图片[5]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

安装后,WINR打开运行,输入cmd回车,打开命令提示符

图片[6]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

在命令提示符窗口输入ollama回车,查看是否已运行,或ollama -v,查看是否输出版本号

图片[7]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

下载 DeepSeek 模型

在ollama官网首页中,点击进入DeepSeek-R1命令列表

图片[8]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

你可以根据自己电脑的配置选择合适的DeepSeek模型版本,例如:​

  • 8GB显存可选择7B模型,安装命令为:ollama run deepseek-r1:7b​
  • 16GB显存可选择14B模型,安装命令为:ollama run deepseek-r1:14b​
  • 32GB显存可选择32B模型,安装命令为:ollama run deepseek-r1:32b
点我查看,如何查看自己的显卡显存

打开任务管理器,性能,选择GPU,显示了GPU内存

图片[9]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

天无神话,只有8G内存,安装的是14b,32b可以运行,但比较慢

以安装14b版本为例(截图有误,懒得改了),复制对应的命令

图片[10]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

粘贴到命令行执行即可

ollama run deepseek-r1:14b
图片[11]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

安装完成后,会出现相应提示,表示安装成功

图片[12]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

配置界面化工具Cherry-Studio

Cherry-Studio是一款集多模型对话、知识库管理、AI 绘画、翻译等功能于一体的全能 AI 助手平台,它能让你更方便地管理和使用DeepSeek模型。访问Cherry-Studio官网,根据自己的电脑系统选择相应版本下载安装。

官网:https://cherry-ai.com/

通过百度网盘分享的文件:Cherry-Studio-1.1.16-setup.exe(不包新,此包下载于2025.03.30)

图片[13]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

下载客户端并安装

图片[14]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

进入后点击设置,选择ollama,开启,点击管理

图片[15]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

在管理中添加本地已安装的模型

图片[16]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

在首页,聊天页,点击程序顶部,切换到自己安装的模型

图片[17]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

此时,已经可以看到,已经可以在断网状态下回复内容

图片[18]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

注意设置默认模型,以获得更好的体验

图片[19]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

创建本地知识库

在设置中,模型服务,选择ollama安装的本地DeepSeek模型,点击更多设置,启用嵌入

图片[20]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

知识库页面,点击模型设置

图片[21]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

填入名称及选择模型,点击确认

图片[22]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

在此处,你可以添加文件或者直接拖拽文件到知识库里,支持 pdf、docx、pptx、txt 等格式,使其向量化。加入后,每个文档都会经过嵌入模型的处理,当看到绿色小勾时,就代表这个文档可以被 DeepSeek 检索到了。比如你把项目策划书、行业调研报告、学习笔记等文件添加进去,等待一会儿,看到绿色小勾出现,就大功告成了。

图片[23]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

对话引用知识库,回到聊天界面,顶部选择 deepseek - r1 模型,输入框下方知识库按钮选中刚才创建的知识库,就可以开始提问了。AI 会根据知识库中的内容生成回答,并且可以查看引用的知识来源。比如你问 “上次项目策划书里提到的目标客户群体是什么?”,它不仅会告诉你答案,还会显示这个答案来自哪份文件的哪一页。

图片[24]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

Cherry-Studio其它可关注的功能

模型及前端个性化设置,在Cherry-Studio的设置中,隐藏着许多提升 AI 性能的小秘密。其中,对话轮数和温度等参数的调整,能让 AI 的回答更加贴合你的需求。对话轮数决定了 AI 在一次对话中能够 “记住” 多少前文内容,合理设置对话轮数,可以避免 AI 在多轮对话中 “失忆”,让交流更加流畅。而温度参数则像是 AI 的 “创造力开关”,它控制着模型输出的随机性和多样性。对于知识类文档,如果主要用于查询事实和获取准确信息,不用于创意写作,温度设置可以低一些,推荐设置在 0.3 - 0.5 之间。这样可以降低回答的随机性,让 AI 给出更加确定、准确的答案。比如在查询专业术语解释、历史事件时间等信息时,低温度设置能确保得到精准的回复。

图片[25]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

模型提示语智能体,可以使用自己的提示词创建及选择知识库分类,以方便执行某个方向的工作。随着知识储备的不断增加,对知识库进行分类管理变得尤为重要。它允许你创建多个工作区,每个工作区就像是一个独立的知识仓库。你可以根据自己的需求,为不同类型的知识创建专属的工作区,比如 “行业报告分析” 工作区,专门存放各类行业研究报告,方便你在进行行业分析时快速查找和调用;“个人笔记库” 工作区,用于整理个人的学习笔记、生活感悟等,让你的私人知识有一个专属的空间。通过多工作区管理,不同类型的知识互不干扰,查找和管理知识更加高效。比如,当你需要撰写一份行业分析报告时,直接进入 “行业报告分析” 工作区,就能迅速找到所需的资料,大大提高工作效率。

图片[26]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

离线翻译,看图就懂

图片[27]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

联网搜索,可自行选择方式

1.SearXNG,隐私更好,自搭建联网搜索程序,可以部署到服务器:https://github.com/searxng/searxng

来自CherryStudio的SearXNG安装教程 https://docs.cherry-ai.com/websearch/searxng

2.tavily,借用平台的,每月1000条免费,注册后,复制apikey,官网地址:https://app.tavily.com/home

图片[28]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

粘贴APIKEY并验证

图片[29]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

测试联网搜索

图片[30]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记
图片[31]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

启用,编辑或关闭其它模型,注意关闭当前图片中这个,因为没有配置,所以使用过程中,可能会误用导致遇到报错而没有头绪

图片[32]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

自动备份,辛辛苦苦搭建起来的知识库,里面包含着大量的宝贵知识,数据安全至关重要。为了防止数据丢失,你可以定期对知识库进行备份。Cherry-Studio提供了便捷的备份功能,只需简单操作,就能将知识库数据保存到指定位置。当你需要更换设备,或者担心本地数据出现问题时,就可以将备份的知识库迁移到新设备上继续使用。比如,你换了一台新电脑,只要将原来备份的知识库文件导入到新电脑的Cherry-Studio中,就能无缝衔接之前的知识管理工作,所有的知识和设置都保持不变,让你的知识管理工作不受设备更换的影响。下图中,你可以使用坚果云的webdav服务

图片[33]-使用DeepSeek在本地电脑打造个人离线AI及知识库教程-王先生笔记

常见问题解答

身份验证失败,请检查API密钥是否正确

怎样删除已安装模型

下载模型忽然变慢

怎样将Ollama安装到其它盘

尾声

通过本文的教程,你已经了解了如何使用 DeepSeek 在本地电脑搭建个人 AI 知识库。这种本地部署的方式不仅能够保护你的隐私,还能让 AI 更好地理解你的需求,随着使用时间的增长,知识库会越来越丰富,回答质量也会越来越高。未来,我们还可以进一步探索如何优化模型性能、扩展知识库功能,让 DeepSeek 更好地为我们的工作和生活服务。赶紧动手试试吧,让你的电脑变成一个超级智能助手!

内容已同步到公众号,受版权保护

其它可视化工具(使用教程自己搜,或自己研究,有中文):https://anythingllm.com/

评论后可接收该文章的更新邮箱通知
友情赞助

如果你喜欢我的内容,可以赞助我哦!你的一点点心意,是我不断前进的动力!

原文链接(非王先生笔记发布均为盗版):https://wxsnote.cn/5813.html

温馨提示: 本文最后更新于2025-03-30 23:20:28,某些文章具有时效性,若有错误或已失效,请在下方留言或加入QQ群: 399019539 联系群主反馈。注意一些链接无法访问可能是你网络的原因,如Github,并非资源地址失效。
© 版权声明
THE END
喜欢就支持一下吧
点赞12 分享
相关推荐
评论 抢沙发

请登录后发表评论

    请登录后查看评论内容

王先生笔记