--- 什么是Ollama? ---
开源工具,支持在本地计算机(Mac/Windows/Linux)运行大型语言模型,特点:
一键部署70+主流模型
自动调用CPU/GPU(Apple Silicon优化)
支持对话交互与API调用
可自定义模型微调
--- 安装指南 ---
▶ macOS:
打开终端执行:
curl -fsSL https://ollama\.com/install\.sh | sh
▶ Linux:
终端执行:
curl -fsSL https://ollama\.com/install\.sh | sh
或使用Docker:
docker run -d -p 11434:11434 ollama/ollama
▶ Windows:
访问官网下载安装包(预览版):
https://ollama.com/download
--- 基础使用 ---
① 运行第一个模型:
ollama run llama3
输入测试提示(例:"用中文写一首关于咖啡的诗")
② 常用命令:
ollama list 查看已安装模型
ollama run <模型名> 启动指定模型
/exit 退出对话模式
③ 保存对话记录:
ollama run llama3 -q > chat_history.txt
【提示】按 ↑ 键调出历史提问,Ctrl+C 终止生成~~~~
--- 进阶技巧 ---
▶ 模型管理:
下载模型: ollama pull codellama:7b
删除模型: ollama rm mistral:latest
▶ API调用示例:
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "用emoji解释量子计算",
"stream": false
}'
▶ Python集成代码:
import ollama
response = ollama.generate(model='llama3', prompt='用三句话解释AI绘画原理')
print(response['response'])
--- 实战场景 ---
场景1:本地代码助手
ollama run codellama:7b
输入:帮我用Python写一个斐波那契数列生成函数,要求带注释
场景2:论文润色
ollama run llama3:70b
输入:请将以下段落改写为学术用语:气候变化导致极端天气增加...
场景3:私人知识库
ollama create myGPT -f Modelfile
--- 常见问题 ---
Q:模型下载速度慢?
A:使用国内镜像源:OLLAMA_HOST=mirror.example.com ollama run llama3
Q:内存不足怎么办?
A:尝试小尺寸模型(如llama3:7b)或添加--num-gpu 1参数
Q:支持中文吗?
A:Llama3中文支持良好,对话时输入:system: 请使用中文回答
--- 资源推荐 ---
官方模型库:https://ollama.com/library