用DeepSeek打造本地个人专属AI知识库
更新时间:2025-02-05 01:44 浏览量:2
春节前夕,整个 AI 圈宛如平静湖面被投入一颗巨石,激起千层浪。杭州的一家极具创新力的公司,以一种震撼的方式登上舞台,发布并开源了 DeepSeek-R1 模型。消息一经传出,迅速在全球 AI 领域引发热议,各大专业论坛、技术交流群瞬间被这个话题霸屏,科研人员、AI 从业者以及科技爱好者们纷纷就此展开热烈讨论。
从技术层面来看,DeepSeek-R1 模型堪称惊艳。它突破了以往模型的局限,实现了更高等级的推理能力。在面对复杂的逻辑推理、知识问答以及多轮对话场景时,都能展现出优异的表现,给出精准且富有逻辑的回答,还展现了它的思考过程。更为关键的是,它在成本控制方面取得了巨大突破,成本低廉到令人惊叹。在如今 AI 模型训练成本高昂的大环境下,DeepSeek-R1 模型为众多企业和研究机构提供了新的可能性。并且其性能十分强悍,在多项权威评测中,展现出了媲美 OpenAI 的实力,在语言理解、生成以及复杂任务处理等方面,都能与国际顶尖模型一较高下。
这一模型的发布,对中国 AI 发展而言,无疑是一针强有力的催化剂。它极大地推动了中国 AI 技术的进步,为国内相关企业和研究机构提供了宝贵的技术参考和借鉴,激励着更多的创新与突破。同时,也将中国的人工智能推向了世界顶端,让全球看到了中国在 AI 领域的深厚技术积累和强大创新能力。它吸引了国际上众多科技巨头的目光,促进了国际间的技术交流与合作,为中国 AI 产业在全球市场赢得了更多的话语权和发展机遇。
这么好的模型,关注AI的我当然不能错过,今天就用这个目前世界顶级的推理模型搭建下我们本地的知识库,也许有人要说,DeepSeek人家是免费使用的,直接在线使用不就好了,当然没问题,没有本地部署需求的,直接到[DeepSeek | 度求索](https://www.deepseek.com/)官网,使用在线的DeepSeek即可。
但是使用在线的免不了你的一些信息会被deepseek的服务器所记录,可能会用于优化模型,也可能会用来做个性化推广,如果你有一些私人信息,不想被他人记录或不能网络传播,但还需要让AI助理帮你处理时,就不太适合用在线模型了。
本篇文章就教会大家如何搭建本地的deepseek模型,并关联自己的知识库,打造专属于自己的AI知识库。
想要本地运行模型,现在有很多工具可用,如ollama、LM Studio、GPT4ALL等等,这些软件都直接提供模型的下载。我这里选择ollama,因为它提供的模型多,不需要科学上网即可下载,而且支持多种UI界面,ollama只提供后端的模型运行。
打开[Ollama](https://ollama.com/)官网,点击“Download”进入下载页面,选择自己的系统下载ollama,如果是windows和macOS会提供安装包的下载,如果是Linux会提供安装命令。
我这里是windows,因此下载的是“OllamaSetup.exe”,双击打开,直接默认安装即可。
安装好后,ollama会自动运行,但我们是看不到界面的,因为ollama默认没有界面,不过在右下角的系统托盘中能看到一个羊驼的图标,这个就是我们的ollama。
Ollama安装好了,开始下载DeepSeek-R1模型,打开Ollama网页,我们可以看到网页上提供了非常多的模型,包括deepseek、llama、phi、nomic-embed、qwen、gemma等各种模型,种类涵盖了LLM、Embedding、Vision等,这些模型都有一个非常大的特点——开源的,所以我们可以放心使用。
找到要安装的deepseek-r1模型,在详情页面可以看到网页上提过了很多参数版本,包括1.5B、7B、8B、14B、32B、70B、671B参数的,这么多要怎么选呢?
熟悉人工智能的朋友可能知道,模型的参数越大,模型文件也就越大,需要运行它的内存也就越大,模型的效果也就越好。因此在**选择哪个参数模型时,需要根据自己的设备而定**,而且大一点儿的模型纯靠CPU还运行不起来,需要靠GPU加持。下面表格中是我找到DeepSeek各个参数模型需要的硬件配置,可以作为参考。
模型大小硬件配置运行命令1.5B8GB RAM,无显卡加速ollama run deepseek-r1:1.5b7B
16GB RAM,8GB显存(GPU加速)
ollama run deepseek-r1:7b
8B
ollama run deepseek-r1:8b
14B
32GB RAM,26GB显存(GPU加速)
ollama run deepseek-r1:14b
32B
64GB RAM,64GB显存(GPU加速)
ollama run deepseek-r1:32b
70B
128GB RAM,140GB显存(GPU加速)
ollama run deepseek-r1:70b
671B
极高的硬件要求,显存需求超336GB
ollama run deepseek-r1:671b
我这里正好有32GB的内存和一个英伟达3070,可以满足14B的模型,就用14B进行搭建我的知识库。
确保Ollama在后台运行后,打开一个cmd,输入`ollama pull deepseek-r1:14b`可将deepseek-r1:14b下载到本地并不会运行模型,如果直接输入`ollama run deepseek-r1:14b`命令,则自动下载模型并运行。
当模型下载后,并可以运行后,会看到如下提示:
这样我们的模型就运行起来了。
Ollama只提供后台的模型服务,并没有界面,如果要用,只能在cmd中进行,这样界面太low了,我们要给他一个好看的界面,通过Ollama官网可以看到支持几十个Web和Desktop的界面程序。
这里我选择AnythingLLM,因为AnythingLLM对本地部署的模型比较友好,而且自带知识库的嵌入模型LanceDB,还有一点比较特殊,就是AnythingLLM支持两种交互模式聊天和查询,聊天是结合LLM和本地知识库来回答用户的提问,而查询就只基于本地知识库进行回答,就只基于我们自己上传的文件进行检索作答。
AnythingLLM的安装这里不做介绍了,直接去AnythingLLM | The all-in-one AI application for everyone官网下载对应系统的安装包,进行默认安装即可。安装过程中一定要保持联网,安装过程中会自动下载一些文件。
AnythingLLM的简单配置
AnythingLLM安装好后,会自动启动软件,看到欢迎界面
点击“Get started”进入配置。LLM的配置,选择Ollama服务商,deepseek-r1:14b模型,其他默认即可。点击右边的箭头进入下一步,信息确认。点击右边的箭头进入下一步,这是一个调查,我们直接点下面的“Skip Survey”或右边的箭头,跳过调查。创建工作区,我这里输入知识库作为工作区名称,然后点击右边的箭头,进入下一步。至此,简单的配置就完成了,进入了主界面,然后是AnythingLLM提供的一个简单介绍,可以简单了解下AnythingLLM。
上传自己的文档
在主页面可以看到左边有一个工作区,就是刚刚创建的“知识库”工作区,工作区后方有个上传的图标,点击这个可以上传自己的文档。
点击后会有弹出个窗口,点击上传文件按钮或将文件拖到该框内,即可上传文件。同时,还支持从网页获取内容,在下方输入网址,点击后面的“Fetch website”即可。
文件或网页内容获取好,并不会自动嵌入,需要我们在左边的选择框处勾选后,点击“Move to Workspace”,然后再点击“Save and Embed”才会开始分析并嵌入内容,等等embed完成,我们就可以到聊天框去询问了。
测试知识库问答
按以上步骤操作后,我们就有了一个本地的AI知识库了,我们来看看效果如何,我刚刚上传了两本python的教程书籍《Python标准库》和《Python核心编程 第二版》,下面我直接提问下【python标准库中核心模块有哪些?】,看看AI回答的对不对,因为用的是deepseek-r1,我们还可以看到他的思考过程。
可以看出,deepseek的思考过程确实是围绕我们提供的知识库进行的,而且在此基础上,还自己主动理解用户的需求并给予可能的作答,这已经和人类思考的过程差不多了。
虽然回答的内容可能还有一些瑕疵,但是想想,我们用的只是一个14B的小模型,效果肯定不如671B的大模型好,但是这也足以满足我们简单的需求了,如果需要更高级的功能或想得到更准确完美的回答,可以尝试大参数模型。
文本生成
主要的知识库测试通过了,下面我们在看看其文本生成能力怎么样?
现在正值春节,就让它帮我生成几个新春祝福语,提示词如下【帮我生成5个蛇年新春祝福语】
效果依然不错,充当一个本地小助理完全没问题。无论是回答问题、提供建议还是执行简单的任务,它都表现得非常出色。如果把DeepSeek这样的智能技术放到目前的人形机器人中,那简直就是将人工智能与实体机器人完美结合,创造出一个真正意义上的AI机器人助理。想象一下,当这个机器人不仅能理解人类语言,还能通过肢体动作和表情来表达情感时,人机交互将达到一个新的高度。期待中国在人工智能领域的持续突破和发展,相信未来会有更多令人惊叹的技术问世,为我们的生活带来更多便利和惊喜。