AnythingLLM 完整使用教程

AnythingLLM 完整使用教程

本文是 AnythingLLM 的使用指南,假设你已经完成了安装并配置好了 LLM 提供商。

界面介绍

首次访问 AnythingLLM(http://你的服务器IP:3001),你会看到主界面:

  • 左侧边栏:工作区列表、设置按钮
  • 中央区域:对话窗口
  • 右侧面板:文档管理(可选)

核心概念

AnythingLLM 有三个核心概念:

1. 工作区(Workspace)

工作区是组织和隔离不同知识库的单位。你可以为不同的项目或用途创建不同的工作区。

2. 文档(Documents)

上传到工作区的文件,AnythingLLM 会自动:
– 解析文档内容
– 进行语义分块
– 生成向量嵌入存储

3. 聊天会话

基于工作区文档的对话,AI 只会在文档范围内回答问题。

创建工作区

  1. 点击左侧边栏底部的 “+” 按钮
  2. 输入工作区名称(如 “个人知识库”)
  3. 选择嵌入模型(默认即可)
  4. 点击创建

上传文档

支持的格式

  • PDF(.pdf)
  • Word(.docx, .doc)
  • 文本(.txt)
  • Markdown(.md)
  • CSV(.csv)
  • 幻灯片(.pptx)
  • 音频(.mp3, .wav)- 需要转录

上传步骤

  1. 进入目标工作区
  2. 点击右侧面板的 “Upload” 按钮
  3. 选择要上传的文件或拖拽文件到窗口
  4. 等待上传和处理完成

注意: 大文件处理可能需要一些时间,耐心等待。

与 AI 对话

基本对话

在底部输入框输入问题,AI 会基于当前工作区的文档回答。

示例:

“请总结一下这个文档的主要内容”

引用来源

AI 回答时会在底部显示引用来源,点击可以跳转到原文。

对话模式

  • Query 模式:AI 只基于文档回答,如文档中没有相关信息,会如实告知
  • Chat 模式:AI 可以自由发挥,文档只作为参考

切换方式:点击输入框上方的模式按钮。

管理文档

查看已上传的文档

右侧面板显示当前工作区的所有文档。

删除文档

  1. 在右侧面板右键点击文档
  2. 选择 “Delete”
  3. 确认删除

注意: 删除文档后,相关的向量数据也会被清除。

重新处理文档

如果文档内容有更新:

  1. 右键点击文档
  2. 选择 “Re-index”
  3. 等待重新处理完成

设置详解

点击左下角齿轮图标进入设置页面:

LLM 设置

  • Provider:选择 LLM 提供商(Ollama/OpenAI/Claude 等)
  • Model:选择具体模型
  • API Key:输入 API 密钥
  • Temperature:控制随机性(0-2,越高越有创造力)
  • Max Tokens:单次回复最大 token 数

嵌入模型设置

  • Provider:选择嵌入模型提供商
  • Model:选择嵌入模型
  • Dimensions:向量维度(默认 1536)

系统设置

  • Chat History:保存对话历史
  • Limit messages:限制历史消息数量
  • Remove stale messages:自动清理旧消息

使用 Ollama 本地模型

如果你想完全本地运行:

1. 安装 Ollama

curl -fsSL https://ollama.com/install.sh | sh

2. 拉取模型

# 轻量模型(适合 CPU)
ollama pull llama3.2:1b

# 中等模型
ollama pull llama3.2:3b

# 较大模型(需要 GPU)
ollama pull llama3.2

3. 在 AnythingLLM 中配置

  1. 进入设置 → LLM 设置
  2. Provider 选择 “Ollama”
  3. Model 选择你安装的模型
  4. URL 填写 http://localhost:11434

4. 配置嵌入模型

使用本地嵌入模型:

  1. 下载 Ollama 嵌入模型:
ollama pull nomic-embed-text
  1. 在 AnythingLLM 嵌入设置中选择 “Ollama Embed”

性能优化

调整 Chunk Size

文档分块大小影响检索质量:
– 较小:更精确但可能遗漏上下文
– 较大:保留更多上下文但可能包含无关信息

在 “Workspace Settings” 中调整。

限制对话长度

如果遇到响应变慢或内存问题:
– 减少 “Limit messages” 数量
– 定期清理对话历史

常见问题

1. 上传大文件失败

检查:
– Docker 内存限制
– 文件大小限制(默认 50MB)

修改 docker-compose.yml:

environment:
  - MAX_FILE_SIZE=100000000  # 100MB

2. 回答不准确

尝试:
– 上传更多相关文档
– 调整 Chunk Size
– 更换更强大的模型

3. 响应速度慢

原因:
– 网络问题(使用 API 时)
– 模型太大(本地运行时)
– 服务器配置太低

解决方案:
– 使用更小的模型
– 增加服务器配置
– 使用 GPU 加速

4. 文档解析错误

部分文件格式可能不被支持,尝试:
– 转换为 PDF
– 转换为纯文本

高级技巧

多工作区隔离

为不同项目创建独立工作区,实现知识隔离。

自定义提示词

在 Workspace Settings 中自定义 System Prompt,引导 AI 行为。

导出对话

点击对话右上角导出按钮可以导出完整对话记录。

总结

AnythingLLM 是一个强大的本地 AI 知识库工具,通过本文你应该能够:

  1. 创建和管理工作区
  2. 上传和处理各类文档
  3. 基于文档与 AI 对话
  4. 根据需要配置 LLM 和嵌入模型

希望这个教程对你有帮助,享受构建自己知识库的乐趣吧!

相关资源

© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容