深度求索推出的DeepSeek,是一款功能极为强大的AI大模型,它在25年1月11日正式上线。其中,DeepSeek - R1的性能可与OpenAI o1正式版相媲美。值得一提的是,其手机版应用曾一度荣登美区App Store单日下载量榜首。这一成绩对ChatGPT的统治性地位以及世界AI格局都产生了不容小觑的冲击,使得DeepSeek更多地出现在大众的视野之中。
然而,DeepSeek因频繁遭受网络攻击,且访问量过大,用户在与它对话时,常常会碰到“服务器繁忙,请稍后再试。”的提示,这着实让不少朋友感到困扰。那么,有没有什么好办法能解决这种状况呢?
答案是存在的,即通过在用户本地部署DeepSeek大模型。然而,这种方法对电脑配置要求较高,普通用户大多只能在本地部署“残血版”的DeepSeek模型,其使用体验比不上官网的“满血版”。但要是你对使用要求以及信息时效性的要求没那么高,也还是能够凑合使用的。接下来言归正传,为大家分享DeepSeek本地部署的保姆级教程。
通过Ollama实现本地部署DeepSeek-R1大模型详细步骤(多数大模型部署通用)
①本地安装Ollama
给大家说明一下,Ollama是个开源框架,借助它,你能够在本地运行大模型,其他的无需理会,了解这一点就足够了。
进入Ollama官网,选择合适的版本下载即可。
官网:https://ollama.com/
根据你的系统选择您需要下载的Ollama版本。
下载完成后点击安装,安装成功后会弹出一个命令行界面。需要注意的是,Ollama本身并无可视化界面,不过这并不妨碍后续使用,毕竟它本质上只是一个框架。
完成上述步骤后,基础就打好了。
②下载DeepSeek-R1模型
访问下方链接,选择要下载的模型,并在右侧复制对应的命令,这里以最小的1.5b版本作为演示。
https://ollama.com/library/deepseek-r1
选择好您要下载的模型,并复制下载的指令。
DeepSeek-R1模型相关参考标准如下:
以1.5b版本为例,复制命令后粘贴到命令行中运行即可下载,速度取决于你的网速。
如果下载完成后报错,就再运行一遍下载命令,提示“success”就代表下载完成了。
然后在命令行里输入“ollama list”来查看下载成功的模型,下图这种情况就代表一切准备就绪了。
接下来,在命令行中输入「ollama run deepseek-r1:1.5b + 问题」,就能开启AI对话。要是你下载的是7b模型,那就输入「ollama run deepseek-r1:7b + 问题」,依此类推。
很明显,单纯依靠命令行进行对话,体验感欠佳。因此,为了提升使用体验,我们需要借助一款第三方AI客户端来调用本地模型。
③通过Cherry Studio调用模型
官网(Win+Mac+Linux):
https://cherry-ai.com/
下载完成后,打开客户端,进入设置界面,选择「Ollama」选项,此时API地址会自动填充,该地址需与下图所示地址保持一致,完成上述操作后,点击“管理”按钮。
在弹出的窗口中可以看到自己本地的模型,点击右侧的按钮添加模型即可。
最后进入对话页面,点击顶部模型名称切换成本地部署的模型,至此大功告成。
以上便是3322软件站为各位分享的借助Ollama达成DeepSeek本地部署的保姆级教程的所有内容,期望能给您带来帮助!

王者荣耀手游每日一题更新到2024.8.12
蚂蚁庄园今日答案最新2024.8.12
全新侠隐江湖系列忍者()侠隐江湖将在10月上线 火影忍者每日一题
英雄联盟手游安妮属性解析
向往的生活【黑魔法游戏套路全解析】规则揭秘
史上最囧挑战第2季1-60关通关攻略分享【微信史上最囧挑战2答案】