图片
1.2 下载完成后安装到本地图片
图片
1.3 安装完成后测试是否安装成功【打开终端输入ollama】图片
1.4 配置ollama的相关全局参数参数1:OLLAMA_HOST目的:配置Ollama以允许外网访问0.0.0.0
图片
参数2:OLLAMA_MODELS目的:ollama会下载相关的模型,而默认是下载到C盘的,所以在拉取镜像之前我们需要先把ollama的模型位置设置到C盘外F:\ollama_model图片
1.5 测试ollama 拉取镜像ollama run tinyllama:1.1b
图片
2.ollama拉取Deepseek模型2.1 终端内拉取并运行v2模型ollama run deepseek-coder-v2:16b图片
2.2 下载完成后,自动进入命令行交互页面,随便提问一个问题图片
至此本地已经有了一个deepseek的大模型,只不过只能在命令行进行交互,为了更方便的操作,我们需要借助chatbox工具来进行页面交互3.安装UI组件(chatbox)并配置Deepseek模型3.1下载chabox图片
3.2下载完成后安装到本地图片
3.3 配置对话页面API域名:机器的局域网ip:11434 ,也可以是127.0.0.1:11434模型:选择的是deepseek-coder-v2图片
3.4 测试对话页面图片
3.5 查看日志图片
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报。