站内搜索

搜索

06-02 13:26
05-31 17:11

[经验分享] ​Ollama使用教程

3

主题

109

点数

79

积分

实习版主

积分
79

柴到了三倍冰淇淋立华奏

发表于 2025-5-27 08:47:32 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x

--- 什么是Ollama? ---

开源工具,支持在本地计算机(Mac/Windows/Linux)运行大型语言模型,特点:
一键部署70+主流模型
自动调用CPU/GPU(Apple Silicon优化)
支持对话交互与API调用
可自定义模型微调


--- 安装指南 ---

▶ macOS:

打开终端执行:
curl -fsSL https://ollama\.com/install\.sh | sh

▶ Linux:

终端执行:
curl -fsSL https://ollama\.com/install\.sh | sh
或使用Docker:
docker run -d -p 11434:11434 ollama/ollama

▶ Windows:

访问官网下载安装包(预览版):
https://ollama.com/download


--- 基础使用 ---

① 运行第一个模型:

ollama run llama3
输入测试提示(例:"用中文写一首关于咖啡的诗")

② 常用命令:

ollama list 查看已安装模型
ollama run <模型名> 启动指定模型
/exit 退出对话模式

③ 保存对话记录:

ollama run llama3 -q > chat_history.txt

【提示】按 ↑ 键调出历史提问,Ctrl+C 终止生成~~~~


--- 进阶技巧 ---

▶ 模型管理:

下载模型: ollama pull codellama:7b
删除模型: ollama rm mistral:latest

▶ API调用示例:

curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "用emoji解释量子计算",
"stream": false
}'

▶ Python集成代码:

import ollama
response = ollama.generate(model='llama3', prompt='用三句话解释AI绘画原理')
print(response['response'])


--- 实战场景 ---

场景1:本地代码助手

ollama run codellama:7b
输入:帮我用Python写一个斐波那契数列生成函数,要求带注释

场景2:论文润色

ollama run llama3:70b
输入:请将以下段落改写为学术用语:气候变化导致极端天气增加...

场景3:私人知识库

ollama create myGPT -f Modelfile


--- 常见问题 ---

Q:模型下载速度慢?
A:使用国内镜像源:OLLAMA_HOST=mirror.example.com ollama run llama3

Q:内存不足怎么办?
A:尝试小尺寸模型(如llama3:7b)或添加--num-gpu 1参数

Q:支持中文吗?
A:Llama3中文支持良好,对话时输入:system: 请使用中文回答


--- 资源推荐 ---

官方模型库:https://ollama.com/library

评分

参与人数 1点数 +5 收起 理由
+ 5 其实我以前好像发过

查看全部评分

「模型在迭代,人类在思考——我们互为彼此的梯度下降。」
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

加入社群

加入社群

Pixtech

Powered by Pixtech

© 2025 Pixtech Team.