AnythingLLM 完整使用教程
本文是 AnythingLLM 的使用指南,假设你已经完成了安装并配置好了 LLM 提供商。
界面介绍
首次访问 AnythingLLM(http://你的服务器IP:3001),你会看到主界面:
- 左侧边栏:工作区列表、设置按钮
- 中央区域:对话窗口
- 右侧面板:文档管理(可选)
核心概念
AnythingLLM 有三个核心概念:
1. 工作区(Workspace)
工作区是组织和隔离不同知识库的单位。你可以为不同的项目或用途创建不同的工作区。
2. 文档(Documents)
上传到工作区的文件,AnythingLLM 会自动:
– 解析文档内容
– 进行语义分块
– 生成向量嵌入存储
3. 聊天会话
基于工作区文档的对话,AI 只会在文档范围内回答问题。
创建工作区
- 点击左侧边栏底部的 “+” 按钮
- 输入工作区名称(如 “个人知识库”)
- 选择嵌入模型(默认即可)
- 点击创建
上传文档
支持的格式
- PDF(.pdf)
- Word(.docx, .doc)
- 文本(.txt)
- Markdown(.md)
- CSV(.csv)
- 幻灯片(.pptx)
- 音频(.mp3, .wav)- 需要转录
上传步骤
- 进入目标工作区
- 点击右侧面板的 “Upload” 按钮
- 选择要上传的文件或拖拽文件到窗口
- 等待上传和处理完成
注意: 大文件处理可能需要一些时间,耐心等待。
与 AI 对话
基本对话
在底部输入框输入问题,AI 会基于当前工作区的文档回答。
示例:
“请总结一下这个文档的主要内容”
引用来源
AI 回答时会在底部显示引用来源,点击可以跳转到原文。
对话模式
- Query 模式:AI 只基于文档回答,如文档中没有相关信息,会如实告知
- Chat 模式:AI 可以自由发挥,文档只作为参考
切换方式:点击输入框上方的模式按钮。
管理文档
查看已上传的文档
右侧面板显示当前工作区的所有文档。
删除文档
- 在右侧面板右键点击文档
- 选择 “Delete”
- 确认删除
注意: 删除文档后,相关的向量数据也会被清除。
重新处理文档
如果文档内容有更新:
- 右键点击文档
- 选择 “Re-index”
- 等待重新处理完成
设置详解
点击左下角齿轮图标进入设置页面:
LLM 设置
- Provider:选择 LLM 提供商(Ollama/OpenAI/Claude 等)
- Model:选择具体模型
- API Key:输入 API 密钥
- Temperature:控制随机性(0-2,越高越有创造力)
- Max Tokens:单次回复最大 token 数
嵌入模型设置
- Provider:选择嵌入模型提供商
- Model:选择嵌入模型
- Dimensions:向量维度(默认 1536)
系统设置
- Chat History:保存对话历史
- Limit messages:限制历史消息数量
- Remove stale messages:自动清理旧消息
使用 Ollama 本地模型
如果你想完全本地运行:
1. 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
2. 拉取模型
# 轻量模型(适合 CPU)
ollama pull llama3.2:1b
# 中等模型
ollama pull llama3.2:3b
# 较大模型(需要 GPU)
ollama pull llama3.2
3. 在 AnythingLLM 中配置
- 进入设置 → LLM 设置
- Provider 选择 “Ollama”
- Model 选择你安装的模型
- URL 填写
http://localhost:11434
4. 配置嵌入模型
使用本地嵌入模型:
- 下载 Ollama 嵌入模型:
ollama pull nomic-embed-text
- 在 AnythingLLM 嵌入设置中选择 “Ollama Embed”
性能优化
调整 Chunk Size
文档分块大小影响检索质量:
– 较小:更精确但可能遗漏上下文
– 较大:保留更多上下文但可能包含无关信息
在 “Workspace Settings” 中调整。
限制对话长度
如果遇到响应变慢或内存问题:
– 减少 “Limit messages” 数量
– 定期清理对话历史
常见问题
1. 上传大文件失败
检查:
– Docker 内存限制
– 文件大小限制(默认 50MB)
修改 docker-compose.yml:
environment:
- MAX_FILE_SIZE=100000000 # 100MB
2. 回答不准确
尝试:
– 上传更多相关文档
– 调整 Chunk Size
– 更换更强大的模型
3. 响应速度慢
原因:
– 网络问题(使用 API 时)
– 模型太大(本地运行时)
– 服务器配置太低
解决方案:
– 使用更小的模型
– 增加服务器配置
– 使用 GPU 加速
4. 文档解析错误
部分文件格式可能不被支持,尝试:
– 转换为 PDF
– 转换为纯文本
高级技巧
多工作区隔离
为不同项目创建独立工作区,实现知识隔离。
自定义提示词
在 Workspace Settings 中自定义 System Prompt,引导 AI 行为。
导出对话
点击对话右上角导出按钮可以导出完整对话记录。
总结
AnythingLLM 是一个强大的本地 AI 知识库工具,通过本文你应该能够:
- 创建和管理工作区
- 上传和处理各类文档
- 基于文档与 AI 对话
- 根据需要配置 LLM 和嵌入模型
希望这个教程对你有帮助,享受构建自己知识库的乐趣吧!












暂无评论内容