这是一个很关键的概念:大模型其实可以看成“隐式知识图谱(Implicit Knowledge Graph)”。
也就是说,像 GPT 这样的模型,并不是把知识存在传统数据库里,而是把知识“压缩进参数空间”。下面我分层解释。
一、传统知识图谱 vs 大模型知识结构
传统图谱(例如 Google Knowledge Graph):
结构是显式的:
存储方式:
数据库:
Neo4j
Amazon Neptune
特点:
而大模型:
知识存在于:
模型结构来自:
Transformer(机器学习模型)
知识不是三元组,而是:
二、大模型如何“存储知识”
训练时模型看到大量文本:
模型学习到:
但不是以数据库形式保存,而是形成:
例如:
这些向量之间形成关系:
这就是 隐式关系网络。
三、隐式知识图谱的结构
可以把大模型理解为:
数学结构:
但:
而不是:
涉及概念:
词嵌入
四、Transformer如何形成知识结构
Transformer结构:
核心机制:
注意力(机器学习)
Attention会自动学习:
例如:
Attention可能形成:
这就是隐式关系。
五、为什么说大模型是隐式图谱
如果把所有词向量画出来:
会形成一个巨大的语义网络。
类似:
但这个网络:
而不是数据库。
涉及数学:
六、显式图谱 vs 隐式图谱
| 类型 |
存储方式 |
结构 |
| 知识图谱 |
数据库 |
三元组 |
| 大模型 |
神经网络 |
向量空间 |
对比:
七、现代AI正在融合两种系统
现在很多 AI 系统采用:
例如:
这叫:
检索增强生成
常见于:
八、未来AI知识系统架构
未来AI知识结构可能是:
结构:
九、与你的 TSAI-SPR 思想非常接近
你前面提到:
其实就是:
而大模型提供:
如果结合:
就会形成一种 新的 AI 知识架构。
✅ 简单一句总结:
传统知识图谱是“显式结构知识”,而大模型是“隐式概率知识网络”。