一、为什么传统知识库正在被革命?
- 数据泄密之痛:某新能源车企使用公有云知识库,导致电池技术文档被爬取,损失超2亿
- 响应迟缓之殇:客服平均查找手册时间从1.2分钟增至4.7分钟(IBM 2024年报告)
- AI转型之迫:国家《数据安全法》要求核心知识资产必须本地化
二、极速部署四步曲(含避坑指南)
Step1:部署Ollama引擎(企业级AI基座)
① 系统环境准备
- Linux用户(推荐Ubuntu 22.04 LTS):
# BASH
# 安装NVIDIA驱动(如使用GPU加速) sudo apt install nvidia-driver-535
# 安装Docker引擎 curl -fsSL https://get.docker.com | sh sudo usermod -aG docker $USER
② Ollama实战安装
访问线上Ollama官网
- Linux用户
# BASH
curl -fsSL https://ollama.com/install.sh | sh
- Windows用户
Windows用户直接安装线上Ollama程序即可
③ 加载DeepSeek模型
在模型列表找到deepseek-r1,选择自己的显卡能够加载的模型大小。
这边Linux使用终端处理器窗口运行,Windows使用CMD窗口运行
# BASH & CMD
# 下载7B量化版(平衡性能与精度)
ollama run deepseek-r1:7b
# 验证模型加载
ollama run deepseek-r1:7b "请用三句话介绍量子计算"
高危避坑:
- 禁用默认端口11434,改用自定义端口+防火墙规则
- 必须配置HTTPS证书(Let's Encrypt免费申请)
Step2:安装Chrome增强套件(Page Assist)
点击‘扩展程序’图标,然后点击最下方的‘管理扩展程序’,再点击左边的‘在 Chrome 应用商店 中发现更多扩展程序和主题’,进入Chrome商店,搜索Page Assist
Step3:部署nomic-embed-text嵌入模型(RAG核心)
① 模型加载
# 此模型做是将文本转换为高维向量,捕捉语义信息,便于后续的检索和匹配。
ollama pull nomic-embed-text:latest
Step4:构建企业知识图谱(RAG实战)
① 数据预处理
- 将企业文档转为标准格式:
# 转换Word/PDF为Markdown
sudo apt install pandoc
pandoc -s 技术白皮书.docx -o 技术白皮书.md
- 敏感信息脱敏:
# 使用Python正则表达式脱敏
import re
text = re.sub(r'\d{3}-\d{8}', '[PHONE]', text)
② RAG策略配置
在Page Assist设置页:
③ 知识库注入
现在,就可以实现本地知识库的问答了。