把“递推问答 → 用户意图推算 → 推荐权重优化”整个流程拆解得清晰可操作。
将用户多轮行为、问答或浏览数据,转换为 概率分布 → 描述用户对每个产品、品牌、推荐内容的兴趣或选择可能性。
支持 连续更新 → 随着用户行为反馈不断修正概率,形成闭环学习。
可直接应用于 推荐排序、AEO触发、知识图谱更新。
事件 (Event)
用户行为或问答结果,如点击产品、选择品牌、浏览时间超过阈值。
记作 EiE_i
意图 (Intent)
用户的潜在行为目标,如购买 A 产品、查看 B 类品牌、关注折扣。
记作 IjI_j
条件概率 (Conditional Probability)
递推公式计算用户意图概率:
P(Ij∣E1,E2,…,En)=P(E1,…,En∣Ij)⋅P(Ij)∑kP(E1,…,En∣Ik)⋅P(Ik)P(I_j|E_1, E_2, …, E_n) = \frac{P(E_1, …, E_n | I_j) \cdot P(I_j)}{\sum_k P(E_1, …, E_n | I_k) \cdot P(I_k)}
先验概率 (Prior)
初始意图概率,可根据历史数据或群体抽样设定:
P(Ij)=选择意图 Ij 的用户数量总用户数P(I_j) = \frac{\text{选择意图 } I_j \text{ 的用户数量}}{\text{总用户数}}
假设每轮问答生成事件 EtE_t,递推概率公式为:
P(Ij∣E1,…,Et)=P(Et∣Ij)⋅P(Ij∣E1,…,Et−1)∑kP(Et∣Ik)⋅P(Ik∣E1,…,Et−1)P(I_j | E_1, …, E_t) = \frac{P(E_t | I_j) \cdot P(I_j | E_1, …, E_{t-1})}{\sum_k P(E_t | I_k) \cdot P(I_k | E_1, …, E_{t-1})}
P(Ij∣E1,…,Et−1)P(I_j | E_1, …, E_{t-1}) → 上一轮递推的后验概率
P(Et∣Ij)P(E_t | I_j) → 当前事件在该意图下的发生概率
这就是 贝叶斯递推 (Bayesian Updating) 的核心公式。
不同用户群体权重不同,可引入 群体权重 wgw_g:
P(Ij∣E1,…,Et)=∑gwg⋅P(Et∣Ij,Gg)⋅P(Ij∣E1,…,Et−1,Gg)∑k∑gwg⋅P(Et∣Ik,Gg)⋅P(Ik∣E1,…,Et−1,Gg)P(I_j | E_1, …, E_t) = \frac{\sum_g w_g \cdot P(E_t | I_j, G_g) \cdot P(I_j | E_1, …, E_{t-1}, G_g)}{\sum_k \sum_g w_g \cdot P(E_t | I_k, G_g) \cdot P(I_k | E_1, …, E_{t-1}, G_g)}
GgG_g → 第 g 个用户群体
wgw_g → 群体权重(可根据群体大小或活跃度设定)
用户行为的时间敏感性:
P(Et∣Ij)←P(Et∣Ij)⋅λΔtP(E_t | I_j) \gets P(E_t | I_j) \cdot \lambda^{\Delta t}
Δt\Delta t → 事件发生到当前时间的间隔
λ∈(0,1]\lambda \in (0,1] → 衰减系数,越老的行为权重越低
结合 TSAI-SPR 的模块 11:概率权重优化:
意图权重加权
W(Ij)=α⋅P(Ij∣E)+β⋅R(Ij)+γ⋅S(Ij)W(I_j) = \alpha \cdot P(I_j|E) + \beta \cdot R(I_j) + \gamma \cdot S(I_j)
P(Ij∣E)P(I_j|E) → 当前递推概率
R(Ij)R(I_j) → 用户历史偏好加权
S(Ij)S(I_j) → 产品或品牌评分/评价加权
α+β+γ=1\alpha+\beta+\gamma = 1
排序与推荐触发
将权重 W(Ij)W(I_j) 排序 → 生成推荐列表
权重高于阈值 → 触发推荐模块或 DIV 显示
每个产品或实体节点附带 概率权重属性:
知识图谱更新规则:
新事件 → 更新后验概率 → 更新节点权重 → 触发推荐
反馈循环 → 用户点击/购买 → 更新概率 → 优化下一轮推荐
双层输出:
DIV 层 → 展示推荐
JSON-LD → 结构化存储权重信息,可被 AI 引擎识别
核心算法:贝叶斯递推 + 群体加权 + 时间衰减 + 权重加权
闭环效果:概率动态更新 → 知识图谱权重 → 推荐触发 → 用户反馈 → 再次迭代
可扩展:支持多轮问答、多群体、实时推荐、AEO/GEO/SEO 联动