Ubuntu 安装 Ollama 完整教程

Ubuntu 安装 Ollama 完整教程

Ollama 是一个在本地运行大语言模型的工具,支持多种模型,无需复杂的配置。

系统要求

  • 操作系统: Ubuntu 20.04 或更高版本
  • 内存: 建议 8GB 以上
  • 存储空间: 至少 5GB 可用空间
  • 网络: 需要访问 GitHub 下载安装包

安装步骤

1. 更新系统

首先更新软件包列表和已安装的软件:

sudo apt update
sudo apt upgrade -y

2. 下载并安装 Ollama

方法一:使用官方安装脚本(推荐)

Ollama 提供了官方的一键安装脚本:

curl -fsSL https://ollama.com/install.sh | sh

这个脚本会自动:
– 下载最新的 Ollama 安装包
– 安装到 /usr/local/bin/ollama
– 创建 systemd 服务
– 配置环境变量

方法二:手动安装

如果脚本安装失败,可以手动安装:

# 下载最新版本(以 0.1.0 为例,请替换为最新版本号)
curl -L https://ollama.com/download/ollama-linux-amd64 -o /tmp/ollama-linux-amd64

# 安装
sudo mv /tmp/ollama-linux-amd64 /usr/local/bin/ollama
sudo chmod +x /usr/local/bin/ollama

# 验证安装
ollama --version

3. 启动 Ollama 服务

安装完成后,Ollama 会自动启动。你可以验证服务状态:

# 检查服务状态
sudo systemctl status ollama

# 如果服务未启动,手动启动
sudo systemctl start ollama

# 设置开机自启
sudo systemctl enable ollama

4. 测试运行

在终端中运行:

# 拉取并运行示例模型
ollama run llama2

# 或运行其他模型
ollama run mistral
ollama run codellama

5. 安装图形界面(可选)

如果你需要图形界面,可以安装 Ollama Desktop:

# 下载 Linux 版本
wget https://ollama.com/download/ollama-linux-amd64.deb

# 安装
sudo dpkg -i ollama-linux-amd64.deb

# 启动
ollama serve

使用方法

命令行使用

# 查看可用模型
ollama list

# 拉取模型
ollama pull llama2
ollama pull mistral
ollama pull codellama

# 运行模型
ollama run llama2

# 与模型交互
# 输入你的问题,按 Ctrl+D 退出

API 调用

Ollama 提供 OpenAI 兼容的 API:

curl http://localhost:11434/api/generate -d '{
  "model": "llama2",
  "prompt": "你好,请介绍一下自己"
}'

Python 代码调用

from ollama import Client

client = Client(host='http://localhost:11434')

response = client.generate(model='llama2', prompt='你好')
print(response['response'])

JavaScript/TypeScript 调用

import { Ollama } from 'ollama';

const ollama = new Ollama({ host: 'http://localhost:11434' });

const response = await ollama.generate({
  model: 'llama2',
  prompt: '你好'
});

console.log(response.response);

常用模型列表

Ollama 支持多种开源大语言模型:

模型 描述 大小 推荐用途
llama2 Meta 开源大模型 4.7GB 通用对话
mistral Mistral AI 模型 4.1GB 通用对话
codellama 编程专用 4.1GB 代码生成
wizardlm WizardLM 模型 4.1GB 通用对话
gemma Google Gemma 模型 2GB 轻量级对话

管理命令

# 查看版本
ollama --version

# 查看已安装模型
ollama list

# 拉取新模型
ollama pull <模型名称>

# 删除模型
ollama rm <模型名称>

# 停止服务
sudo systemctl stop ollama

# 重启服务
sudo systemctl restart ollama

故障排除

问题 1: 权限被拒绝

# 错误信息: permission denied

解决方案:确保使用 sudo 运行,或者将用户添加到 ollama 组:

sudo usermod -aG ollama $USER
newgrp ollama

问题 2: 服务无法启动

# 检查日志
sudo journalctl -u ollama -n 50

问题 3: 内存不足

如果遇到内存不足错误,可以:
– 使用更小的模型(如 gemma)
– 关闭其他占用内存的程序
– 增加系统交换空间

高级配置

环境变量配置

编辑 ~/.bashrc~/.zshrc

export OLLAMA_HOST=0.0.0.0:11434
export OLLAMA_MODELS=/path/to/models

然后重新加载配置:

source ~/.bashrc

Systemd 服务配置

如果需要自定义服务配置,编辑 /etc/systemd/system/ollama.service

[Service]
ExecStart=/usr/local/bin/ollama serve
User=your_username
Group=your_username
Environment="OLLAMA_HOST=0.0.0.0:11434"
Restart=always

重启服务:

sudo systemctl daemon-reload
sudo systemctl restart ollama

性能优化

使用 GPU 加速

确保安装了 NVIDIA 驱动:

nvidia-smi

Ollama 会自动使用 GPU 加速。

调整并发数

编辑 /etc/systemd/system/ollama.service,添加:

Environment="OLLAMA_NUM_PARALLEL=4"

缓存模型

频繁使用的模型可以缓存到内存:

# 预加载模型
ollama pull llama2

安全建议

  1. 不要在公网暴露 API: 默认只监听 127.0.0.1,不要修改为 0.0.0.0
  2. 使用防火墙: 配置 ufw 限制访问
  3. 定期更新: 保持 Ollama 和系统更新
# 配置防火墙
sudo ufw allow 22/tcp
sudo ufw allow 11434/tcp  # 如果需要远程访问
sudo ufw enable

参考资源

总结

Ollama 是一个强大而易用的本地大语言模型运行工具。通过本教程,你应该已经能够在 Ubuntu 系统上成功安装并使用 Ollama。选择适合你需求的模型,享受本地 AI 的便利吧!

许可证

Ollama 使用 MIT 许可证。

© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容