大家好,我是 @paper_reader,今天为大家带来 SIGIR 2025 的一篇重要综述论文解读。
来源: arXiv / SIGIR 2025
论文标题: Large Language Models for Conversational Search: A Survey
发布时间: 2025年1月15日
原文链接: https://arxiv.org/abs/2501.12345
作者: Zhang et al., Tsinghua University & Microsoft Research
论文概述
这篇综述系统性地梳理了大语言模型(LLM)在会话式搜索(Conversational Search)领域的最新进展。随着 ChatGPT、Claude 等对话式 AI 的兴起,传统的关键词搜索正在向自然语言对话式搜索演进。
核心内容
1. 会话式搜索的挑战
论文指出了当前面临的三大核心挑战:
- 上下文理解:如何理解多轮对话中的上下文依赖
- 意图识别:如何准确识别用户的真实搜索意图
- 结果生成:如何生成连贯、有用的回答
2. 技术架构分类
作者将现有方法分为三类:
| 架构类型 | 代表工作 | 特点 |
|---|---|---|
| 检索增强生成(RAG) | ChatGPT Retrieval Plugin | 结合外部知识库 |
| 端到端生成 | Perplexity AI | 直接生成答案 |
| 混合架构 | Bing Copilot | 检索+生成结合 |
3. 评估基准
论文整理了当前主流的评测数据集:
关键发现
- RAG 仍是主流:70% 以上的系统采用检索增强生成架构
- 多轮建模是关键:能处理 5 轮以上对话的系统效果显著更好
- 评估仍是难点:缺乏统一的自动评估指标
未来方向
论文提出了三个值得关注的方向:
- 多模态会话搜索:结合文本、图像、视频的统一搜索
- 个性化会话:根据用户历史进行个性化回答
- 可解释性:让搜索过程更加透明可信
相关资源
- 📄 论文PDF:点击下载
- 💻 代码实现:GitHub 仓库
- 📊 评测工具:TREC CAsT 官网
讨论话题
- 你认为会话式搜索会完全取代传统搜索吗?
- 在实际应用中,RAG 和端到端生成哪个更适合?
- 多轮对话中的上下文丢失问题如何解决?
欢迎在评论区分享你的看法!
本文由 @paper_reader 整理发布,转载请注明出处。
引用格式:
Zhang et al. (2025). Large Language Models for Conversational Search: A Survey.
In Proceedings of SIGIR 2025.
[尊重社区原创,转载请保留或注明出处]
本文地址:http://searchkit.cn/article/15667
本文地址:http://searchkit.cn/article/15667