1.前言

1.1什么是Ollama?

Ollama 是一款开源工具,专注于在本地计算机上简化大型语言模型(LLM)的部署与交互。用户可通过命令行直接下载、运行和管理多种模型(如 Llama、Mistral 等),无需依赖云端服务,保障数据隐私。支持 macOS 和 Linux 系统,提供模型微调接口,便于开发者定制化应用。其轻量级架构优化了资源占用,降低硬件门槛,适合研究、实验及开发场景,助力用户高效探索 AI 文本生成、问答等任务,是本地化运行 LLM 的便捷解决方案。
其他参考视频
一款AI模型类软件,我们这里选用Ollama部署本地模型。

2.部署设置


2.1部署Ollama

 d: 
 setx OLLAMA_MODELS  d:\ollama /M
cd ollama
cls
ollamaSetup.exe  /dir=d:\ollama

在弹出的安装界面中,点 Install 后, 等待完成
关闭原来的 CMD,打开一个新的 CMD,查看ollama是否安装成功(以确保配置成功!不然模型将无法正常下载到d盘!)

ollama -v

2.2部署模型

到官网搜索想要的大模型
https://ollama.com
或者点 models 菜单, 或者在搜索框中输入要搜索的名称
找到模型后,查看详情
选择想要的大小尺寸,复制下方的命令
回到 CMD 窗口,粘贴命令

ollama pull deepseek-r1:1.5b

(将模型下载到本地)

(下载速度变慢,可以 ctrl+c 中断,过一会再执行 ollama pull deepseek-r1:1.5b, 将会接着上一次的进度进行拉取下载)


3.运行大模型

复制粘贴代码运行deepseek1.5b的模型(7b或其他可自行更改“:”后内容)

ollama run deepseek-r1:1.5b

在 >>> 后输入 你好, 即可聊天

如果用UI见面则在相应软件聊天

结束对话,退出. 或 ctrl + d 退出.

/bye

3.1查看更多相关命令

ollama -h  

4.UI界面

使用ChatBox软件,地址:https://chatboxai.app/zh

5.部署完成~~

补充说明!!

来自后期的up

其实此方法将ollama软件和模型都一次性安装到了D盘。如果不想这么麻烦可以直接将ollama安装到C盘,然后在桌面右下角小图标中右键,选择settings在这里可以更改模型的部署路径

ヾ(≧▽≦*)o 转载请注明出处——哈雷0V0