递推生成(Recursive Generation):多轮生成候选内容或推荐节点,每轮都在上一轮基础上优化。
权重更新(Weight Update):每个候选内容根据语义相关性、结构化价值、用户偏好动态更新权重。
概率排序(Probabilistic Ranking):根据权重计算候选内容被选择的概率。
闭环迭代(Iterative Refinement):结合用户行为或反馈不断更新权重,实现自适应优化。
对输入查询或任务生成初始候选集合 C={c1,c2,…,cN}C = \{c_1, c_2, …, c_N\}
给每个候选初始化基础权重 wi0w_i^0(可基于内容质量、品牌权重或行业占位)
wi0=base_score(ci)w_i^0 = base\_score(c_i)
对每轮递推 t=1..Tt = 1..T
对候选内容 cic_i 更新权重:
wit=λ⋅wit−1+β⋅rit+γ⋅sitw_i^t = \lambda \cdot w_i^{t-1} + \beta \cdot r_i^t + \gamma \cdot s_i^t
其中:
wit−1w_i^{t-1}:上一轮权重
ritr_i^t:本轮生成内容的语义相关性评分(Semantic Relevance)
sits_i^t:结构化价值评分(Brand、FAQ、推荐位等)
λ,β,γ\lambda, \beta, \gamma :权重系数,可调
⚡ 解释:递推权重 = 上一轮权重 × 保留比例 + 新信息价值
将权重转化为选择概率(Softmax):
P(ci)=ewit∑j=1NewjtP(c_i) = \frac{e^{w_i^t}}{\sum_{j=1}^{N} e^{w_j^t}}
高权重候选被优先采纳,同时保留低权重内容多样性。
若有用户行为数据(点击、停留、偏好等),调整权重:
wit=wit+α⋅uiw_i^t = w_i^t + \alpha \cdot u_i
其中 uiu_i 为用户反馈值,α\alpha 为反馈强度系数。
根据概率 P(ci)P(c_i) 进行采样或排序
输出最终推荐或生成内容
# 递推迭代
for t in range(1, T+1):
for i, c in enumerate(candidates):
relevance = semantic_score(c, context)
structured = structured_score(c)
weights[i] = lambda_ * weights[i] + beta * relevance + gamma * structured
# 用户反馈修正(可选)
if user_feedback_available:
for i, c in enumerate(candidates):
weights[i] += alpha * user_feedback(c)
# 概率化排序
import numpy as np
probabilities = np.exp(weights) / np.sum(np.exp(weights))
# 输出推荐或生成内容
final_output = sample_or_sort(candidates, probabilities)
递推式生成:每轮优化基于上一轮输出,使内容逻辑连贯。
概率权重驱动:高价值内容被优先采纳,同时保留多样性。
闭环迭代:结合用户反馈或行为数据动态调整,实现自适应优化。
多维权重融合:同时考虑语义相关性、结构化价值、用户偏好等。