即使是不成熟的尝试,也胜于胎死腹中的策略。

【论文精读】用 LLM 做伪相关反馈:搜索技术的新突破?

Logstash | 作者 paper_reader | 发布于6 小时前 | | 阅读数:71

今天解读一篇关于伪相关反馈(Pseudo-Relevance Feedback, PRF)大语言模型(LLM)结合的论文。这是一个经典搜索技术与前沿 AI 的碰撞,可能会改变未来的查询扩展方式。

什么是伪相关反馈?

伪相关反馈(PRF)是信息检索领域的经典技术:

  1. 用户输入查询词
  2. 系统先用这个查询做一次初步检索
  3. 假设排在前面的结果都是相关的("伪"相关)
  4. 从这些结果中提取关键词,扩展原始查询
  5. 用扩展后的查询重新检索,得到更好的结果

举个例子:

  • 原始查询: "苹果价格"
  • 初步检索发现前排结果都是关于 iPhone 的
  • 提取扩展词: "iPhone", "手机", "售价"
  • 扩展查询: "苹果价格 iPhone 手机 售价"
  • 最终检索结果更精准

PRF 的问题在于:怎么提取高质量的扩展词? 传统方法往往效果有限。

这篇论文的核心思想

用 LLM 替代传统的 PRF 扩展词提取方法

核心流程:

用户查询 → 初步检索 → Top-K 结果 → LLM 分析 → 生成扩展词 → 扩展查询 → 最终检索

三种 LLM-based PRF 策略

方法1:LLM 直接生成扩展词

把 Top-K 检索结果喂给 LLM,让它生成相关的扩展词。

方法2:LLM 提取关键词

让 LLM 从文档中提取关键词,而不是生成。

方法3:LLM 生成查询意图描述(效果最好)

让 LLM 先理解查询意图,再生成扩展。这是论文中效果最好的方法。

实验结果

与传统 PRF 方法对比

方法 NDCG@10 相对提升
无 PRF(基线) 0.312 -
Rocchio PRF 0.341 +9.3%
LLM 意图理解 0.389 +24.7%

结论: LLM-based PRF 明显优于传统方法。

不同 LLM 的效果对比

LLM NDCG@10 延迟
GPT-3.5-turbo 0.389 120ms
GPT-4 0.401 350ms
Claude-3-Sonnet 0.395 180ms

结论: GPT-4 效果最好但延迟较高,Claude-3 是性价比不错的选择。

实际应用价值

场景1:企业内部搜索

企业文档搜索面临词汇不匹配问题。LLM 能理解企业术语,扩展更准确。

场景2:电商搜索

用户搜索"手机",可能实际想要"iPhone 15 Pro Max"。LLM 能理解用户想要具体型号。

场景3:学术搜索

用户搜索"transformer",LLM 能从初步结果判断用户意图,针对性扩展。

成本与性能权衡

成本分析(每1000次查询):

方法 LLM 调用次数 成本 延迟增加
无 PRF 0 $0 0ms
LLM 生成 1000 $0.50 120ms
LLM 意图 2000 $1.00 240ms

建议: 对延迟敏感的场景用 LLM 提取关键词方法;追求准确率用 LLM 意图理解方法。

局限性与挑战

挑战1:LLM 幻觉

LLM 可能生成与文档无关的扩展词。

解决方案: 限制 LLM 只能从文档中提取,不能自由生成。

挑战2:延迟增加

LLM 调用会增加 100-300ms 延迟。

解决方案: 缓存常见查询的扩展结果;异步预计算热门查询的扩展词。

与 RAG 的结合

这篇论文的技术也可以应用到 RAG 系统中:

传统 RAG: 用户查询 → 向量检索 → Top-K 文档 → LLM 生成回答

结合 LLM-based PRF 的 RAG: 用户查询 → 向量检索 → Top-K 文档 → LLM 扩展查询 → 再次检索 → 合并结果 → LLM 生成回答

这样可以召回更多相关文档,提升 RAG 效果。

总结

这篇论文展示了一个很有价值的方向:用 LLM 增强传统搜索技术

核心启示:

  1. LLM 不仅能用于生成,还能用于理解和分析
  2. 传统搜索技术 + LLM 可能比纯向量检索效果更好
  3. 成本与效果的权衡需要根据场景决定

对于搜索工程师来说,这是一个值得尝试的方向。


你在搜索系统中用过 PRF 吗?有没有尝试过结合 LLM?


论文标题: A Systematic Study of Pseudo-Relevance Feedback with LLMs 发布时间: 2026年3月11日 来源: arXiv cs.IR


[尊重社区原创,转载请保留或注明出处]
本文地址:http://searchkit.cn/article/15699


0 个评论

要回复文章请先登录注册