其实我们使用的deepseek是有内容限制的,对于有些敏感问题是不会回答你的。偶然间发现了个大佬教程怎么按照无限制版本,就试了下还是很很给力的,本地化Deepseek R1 越狱版!无审查、无内容限制,无思想钢印,无道德制高点….
想不想?
最近这段时间一直在看怎么本地化部署,网上教程实在是太多了不知道到底能不能部署成功,周末就抽空部署了下,把自己的成功的步骤都记录下来,如果你需要,可以按照我的步骤来,一定可以成功的。
我电脑是笔记本,16G内存,i5处理器,集成显卡,无独显。
可能有人会觉得越狱版没有官方版聪明,这是一个比较大的误解,官方版可是671B的,普通人是跑不起来的,大多数人能本地运行的都是7b、8b、14b、32b这几大类型的模型,是被蒸馏压缩过的,无法直接和671B相比,但是自己本地使用已足够。
671B要几十万的硬件配置,我们普通人谁又会花这个钱去搞这些呢?
图片 好了,废话不说了,按照我的步骤来部署吧!
第一步:安装Ollama
网址:https://ollama.com/ 里面有对应的系统和版本,只需要下载后,下一步下一步即可安装。先安装哦。
第二步:
打开cmd命令窗口,输入命令,这个命令是告诉ollama这个软件,要下载并运行哪个模型。越狱版和官方版都在这里下载,只是下载的不一样,好比我们给电脑装系统,装官方系统还是破解版本系统,只是下载的系统不一样。这一步就是下载“破解版“系统并安装。
7b ollama run huihui_ai/deepseek-r1-abliterated:7b
8b ollama run huihui_ai/deepseek-r1-abliterated:8b
14b ollama run huihui_ai/deepseek-r1-abliterated:14b
32b ollama run huihui_ai/deepseek-r1-abliterated:32b
70b ollama run huihui_ai/deepseek-r1-abliterated:70b
把已上的命令复制下来,windows系统打开cmd窗口,粘贴进去,敲回车键即可,慢慢的等吧。苹果电脑是在”终端”这个软件里粘贴命令,再敲回车。步骤一样的。
上面是 越狱版本的模型下载命令,同样如果你想要官网的,可以打开ollama地址下载,地址是:https://ollama.com/library/deepseek-r1 这个2个选择一个就行,理论上下载2个也可以,我没有试,防止有冲突。
打开后下拉选择自己需要的模型,,右侧命令复制下来,在cmd中粘贴 再敲个回车键就可以了。
第三步:
上面安装完成后其实就可以在cmd里面对话了,但是在这里对话有点不方便,我们需要装一个软件,这个软件会和本地大模型对接,我们通过这个软件来对话,就不用在cmd对话了,比较方便。
我使用的软件是 https://cherry-ai.com/,还有一些其他的,比如https://chatboxai.app/zh等等, 因为我之前就用的是他,集成了很多服务商,想用谁都比较方便,像阿里云、硅基流动等都支持。所以我用他,你可以换你喜欢的 。
下载后一样也是下一步下一步安装,然后在左下角有设置,
然后就可以直接问问题啦
PS:以我本地的电脑配置,13代I5处理器、16G内存,下的是8B模型,回答问题内存占用93%; 各位可以适当下载小点的,或者增加点内存。