DeepSeek进阶使用

# DeepSeek进阶使用

deepseek (opens new window)

# DeepSeek本地部署

动手学ollama (opens new window)

  1. 下载Ollama;
  2. 打开,按照软件提示,cmd运行命令进行安装:ollama run llama3.2
  3. 安装完成,cmd输入ollama有内容显示表示安装完成;
  4. 打开官网model (opens new window)页面,查看支持哪些模型;找到deepseek-r1,这里选择1.5b,复制对应的命令,cmd执行即可~
ollama # 查看是否已安装
ollama --version # 查看版本
ollama list # 查看本地安装了哪些模型
/bye # 退出
ollama run deepseek-r1:1.5b # 运行对应模型
ollama --help # 查看帮助,查看命令
ollama rm deepseek-r1:1.5b # 删除模型
  • 配置图文交互界面

方案1: 安装Docker

参考:DeepSeek-R1本地部署,再也不怕宕机,还有语音功能! (opens new window)

方案2:ChatBox.AI (opens new window)

ChatBox 是 AI客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用

如何将 Chatbox 连接到远程 Ollama 服务:逐步指南 (opens new window)

方案3:Chrome插件:Page Assist (opens new window),安装后,在Chrome浏览器中,点击插件图标,选择Settings,在Model中选择Ollama,在Server中输入http://127.0.0.1:11434,点击Save,即可使用Ollama模型。

# VScode安装Cline插件

参考:VSCode神级Ai插件Cline:从安装到实战【创建微信小程序扫雷】 (opens new window)

  1. 安装Cine插件

  2. 安装完成后,vsCode左侧菜单栏会出现Cline图标,点击打开,API Provider选择DeepSeek,输入API Key,之后Model选择deepseek-chat即可~

# VScode安装Continue插件

continue (opens new window),AI编程助手

  1. 安装Continue插件,安装成功,vsCode左侧菜单栏会出现展示Continue图标
  2. 本地终端运行:ollama run deepseek-r1
  3. 点击Continue图标,点击下拉选择模型,会看到刚运行的deepseek模型已经自动加载进来了,选择即可~
  4. 之后就可以@呼出快捷功能,进行操作了

# Deepseek R1打造本地化RAG知识库

参考:Deepseek R1打造本地化RAG知识库:安装部署使用详细教程 (opens new window)

  • RAG

Retrieval-Augmented Generation,增强信息检索和生成模型

RAG是一种结合了信息检索和大模型(LLM)的技术,在对抗大模型幻觉、高效管理用户本地文件以及数据安全保护等方面具有独到的优势。

大模型幻觉指的是大型语言模型在生成文本时,可能会产生看似合理但实际错误或虚构的内容。这种现象通常是因为模型在训练过程中学习了大量数据,但缺乏对真实世界的直接理解,导致其生成的回答有时不符合事实或逻辑。

  1. 安装Ollama

  2. 下载 DeepSeek R1 模型,启动

ollama run deepseek-r1
  1. 下载 Nomic-Embed-Text 向量模型
ollama pull nomic-embed-text
  1. 安装AnythingLLM

AnythingLLM 是一个功能强大且灵活的开源平台,旨在帮助用户轻松构建和部署基于大型语言模型 (LLM) 的私有化应用程序。

anythingllm (opens new window)

  • 安装完成,打开AnythingLLM,配置:
LLM Providers: Ollama
Ollama Model: deepseek-r1
# 其他的直接下一步
工作空间:My Workspace # 输入自己的工作空间名称
# 可输入邮箱,也可直接跳过

# 初始化配置完成后,会出现工作区界面,点击 settings 图标:
LLM首选项 # 可配置模型,上面已经配置了deepseek-r1,不用再配置
向量数据库 # 默认配置即可
Emberdder首选项 # 选择 Ollama => nomic-embed-text,保存即可
  1. 上传本地文档
  • 点击工作区My Workspace => 点击上传图标 => 选择本地文件 => 上传 => 上传完成后,选中,Move to Workspace => Save and Embed => 等待更新完成即可

  • 之后就可以在工作区进行问答了,比如让它总结刚才文档的内容,它会自动根据文档内容进行总结,并展示引用的文档。

# 收藏

上次更新: 3/18/2026, 12:19:45 AM
最近更新
01
RAG实战:低码平台接入RAG知识库
03-04
02
B端低码平台的实践与思考
02-27
03
AI原创短片创作实操笔记
02-23
更多文章>