生成式推荐综述
A Survey on Generative Recommendation: Data, Model, and Tasks
基本信息
- 作者: Min Hou, Le Wu, Yuxin Liao, Yonghui Yang, Zhen Zhang, Yu Wang, Changlong Zheng, Han Wu, Richang Hong
- 机构: 合肥工业大学 (a), 新加坡国立大学 (b)
- 发表: arXiv 2510.27157, 2025
- 关键词: 推荐系统, 生成式模型, 大语言模型, 扩散模型
- 收录范围: 覆盖 ICML、ICLR、NeurIPS、ACL、SIGIR、KDD、WWW、RecSys、TKDE、TOIS 等顶会顶刊,共收集 200+ 篇论文(截至 2025 年)
核心论点
推荐系统正经历从判别式匹配范式到生成式推荐范式的范式转变。传统判别式方法学习用户-物品匹配函数 ,而生成式推荐将推荐问题重构为生成任务——直接生成目标文档或物品以满足用户信息需求。
本综述提出统一的数据-模型-任务三元框架,系统梳理生成模型如何重塑推荐系统的全流程:
- 数据层面: 生成模型实现知识增强的数据增广和基于智能体的行为仿真,同时统一异构信号
- 模型层面: LLM 方法、大型推荐模型 (LRM) 和扩散模型方法三条技术路线
- 任务层面: 对话式交互、可解释推理、个性化内容生成等新能力
综述识别了生成式推荐的五大优势:世界知识整合、自然语言理解、推理能力、缩放定律、创造性生成。
关键技术方法
一、数据层面 (Data-Level)
1. 数据生成 — 开放世界知识增广
四类增广方式:
- 内容增广: 利用 LLM 生成自然语言用户/物品画像、摘要历史交互、丰富稀疏元数据(代表:LLM-Rec、LRD、MSIT、SINGLE、KAR、Lettingo)
- 表征增广: 自动化特征构建、多模态属性提取、外部知识蒸馏(代表:DynLLM、GE4Rec、HyperLLM)
- 行为增广: 生成合成用户-物品交互,缓解冷启动和公平性问题(代表:ColdLLM、LLM-FairRec、LLM4IDRec)
- 结构增广: 关系发现、图补全、社交网络生成、知识图谱构建(代表:SBR、LLMRec、CORONA、COSMO)
2. 数据生成 — 基于智能体的行为仿真
- 交互仿真: LLM 智能体模拟用户决策行为,结合记忆模块、角色建模和反思循环(代表:Agent4Rec、AgentCF、SimUSER、SUBER)
- 社会仿真: 模拟大规模社交动态,包括信息传播、从众效应等群体级动力学(代表:GGBond、RecAgent)
3. 数据统一
- 多域统一: 跨域推荐中桥接语义关系,处理行为稀疏和域间差距(代表:DM-CDR、LLM4CDSR、Uni-CTR、MoLoRec)
- 多任务统一: 将评分、排序、解释、意图识别等整合为单一框架(代表:P5、GPSD、ARTS)
- 多模态统一: 整合文本、图像、行为日志到统一语义空间(代表:UniMP、LLaRA、PAD)
- One Model for All: 通用推荐模型,统一处理多种任务、域和模态(代表:P5、M6-Rec、UniTRec、CLLM4Rec、A-LLMRec)
二、模型层面 (Model-Level)
1. 基于 LLM 的生成式推荐
三条技术路线:
- 预训练 LLM 直接推荐: 通过 prompt 设计和上下文学习,无需大量重训练。分为 LLM-as-Enhancer(增强现有管道)和 LLM-as-Recommender(直接生成推荐)两种模式
- LLM 对齐推荐: 三种对齐方式:
- 文本提示: 将用户画像完全用自然语言构建(TALLRec、LlamaRec、LRD)
- 协同信号注入: 将交互关系信息注入 LLM(iLoRA、LLM-ESR、LLaRA、CoRAL、CORONA)
- 物品 Token 化: 将物品映射到 LLM 词汇表,五种方案——基于 ID、基于文本、基于码本、码本+协同信号、自适应 Token 化(P5、TIGER、Letter、TokenRec、SIIT)
- 训练目标与推理:
- 训练范式:SFT、自监督学习、强化学习、直接偏好优化 (DPO)
- 推理优化:重排序(RecRanker、LLM4Rerank)和加速(FELLAS、Prompt Distillation、AtSpeed)
2. 大型推荐模型 (Large Recommendation Models, LRMs)
与 LLM 适配路线不同,LRM 直接针对用户行为数据设计专用架构,建立推荐任务原生的缩放定律:
- 缩放定律验证: Meta 的 HSTU 将判别式 CTR 预测转化为生成式序列建模,支持 1024-8192 超长用户序列,验证模型规模达 1.5 万亿参数时性能持续提升,而判别式模型在约 2000 亿参数时即饱和
- 端到端推荐: 快手 OneRec 用端到端生成式模型替代”检索-粗排-精排”级联架构,关键在线指标观看时长提升 1.68%,计算资源利用率从 11% 提升至 28.8%,运行成本仅为级联架构的 10.6%。OneRec 采用 Encoder-Decoder + MoE 架构,提出基于 Session 的列表生成方式,并引入 DPO 偏好对齐阶段
- 代表工作: HSTU (Meta)、MTGR (美团)、GenRank (小红书)、OneRec/OneSug (快手)、EGA-V2
3. 基于扩散模型的生成式推荐
- 增广数据生成: 生成高质量交互数据(DGFedRS、MoDiCF、DiffuRec)、鲁棒表征(ARD、DDRM)、偏好注入条件生成(DMCDR、InDiRec)
- 目标物品生成: 将推荐视为去噪过程,直接生成推荐物品(DiffRec、DreamRec、DiffRIS、DiQDiff)
- 多样性与不确定性建模: DiffDiv 设计多样性感知引导学习
- 专用优化: DDSR 用离散扩散捕捉用户兴趣演化,ADRec 和 PreferDiff 针对推荐场景优化扩散目标
三、任务层面 (Task-Level)
1. Top-K 推荐
生成式推荐在推理阶段需要”生成接地”确保生成有效物品,三种策略:
- 词汇约束解码: 限制解码空间到预定义物品标识符(Trie 算法、FM-index、TransRec)
- 后生成过滤: 自由生成后通过语义匹配映射回目录物品(BIGRec)
- 提示增强: 将候选物品集注入 prompt,让模型从中推荐(LLaRA、A-LLMRec)
2. 个性化内容生成
- 个性化视觉内容: 扩散模型生成个性化穿搭(DiFashion)、3D 虚拟试穿(DreamVTON、OOTDiffusion)、个性化图像(InstantBooth)
- 个性化文本内容: 评论生成、新闻标题生成
3. 对话式推荐
五个方法方向:提示与零样本方法、检索增强与知识增强方法、统一参数高效架构、评估方法、持续交互优化
4. 可解释推荐
- 基于 Prompt 的解释生成(P5)
- 结合图神经网络增强解释(XRec、G-Refer)
- 利用思维模型的推理过程作为解释
5. 推荐推理
三类推理方法:
- 显式推理: 生成人类可读的推理过程(Reason4Rec 的审慎推荐、Reason-to-Recommend 的 IoT 推理、ThinkRec、OneRec-Think)
- 隐式推理: 潜在空间推理,无需文本可解释性(LatentR^3 的强化潜在推理、ReaRec 的推理时计算、STREAM-Rec 的慢思考范式)
- LLM 推理增强: 用 LLM 生成推理步骤增强传统推荐模型训练(DeepRec、LLMRG)
主要结果与关键发现
- 范式转变已确立: 生成式推荐正在从辅助工具转变为主流范式,覆盖数据准备、模型设计到任务执行的全链路
- LRM 缩放定律成立: HSTU 验证了推荐系统同样存在类似 LLM 的缩放定律,模型规模越大性能越好
- 端到端架构可行: OneRec 的工业级部署证明端到端生成式推荐在性能和工程效率上同时超越级联架构
- 推理能力是新前沿: 从简单的匹配到多步推理,推荐系统的推理能力正在成为关键差异化因素(OneRec-Think、LatentR^3)
局限性与开放挑战
数据层面
- 现有基准数据集(MovieLens、Netflix、Amazon、Yelp)是非交互式、离线、静态的,无法评估生成式推荐作为个性化助手的真实能力
- 亟需支持多轮交互、动态反馈、多任务的新基准
模型层面
- 偏差问题: 流行度偏差(SFT 过拟合热门物品、DPO 强化现有模式)、公平性偏差(敏感属性泄露)、位置偏差(LLM 对输入顺序敏感)
- 鲁棒性问题: 自然噪声中的幻觉现象、文本模拟攻击的低成本和可迁移性
部署层面
- 训练效率: PEFT 方法不足以应对推荐数据集规模的快速增长
- 推理效率: 自回归解码的多次串行调用导致延迟过高,且 Top-K 列表生成需要 beam search,传统加速方法难以直接应用
与相关工作的关系
与 OneRec 系列的关系
OneRec 是快手提出的端到端生成式推荐模型,是 LRM 路线的代表性工业实践。本综述将 OneRec 归类为大型推荐模型 (LRM) 的”端到端推荐”方向,详细介绍了其 Encoder-Decoder + MoE 架构、Session-based 列表生成、DPO 偏好对齐等技术创新,并指出 OneRec 在在线指标和资源利用率上的显著收益。OneRec-Think 则进一步激活了 LLM 推荐器的推理能力。
与其他综述的区别
相较于 Wu et al. (2024)、Lin et al.、Zhao et al.、Deldjoo et al. 等先前综述,本综述的三个差异化贡献:
- 更广的生成范式覆盖: 同时涵盖 LLM-based、LRM 和 Diffusion-based 三条路线
- 数据-模型-任务框架: 从流水线不同阶段分析生成模型的贡献
- 任务层创新: 专门讨论交互式推荐、对话推荐、个性化内容生成等新场景
在推荐系统演化中的定位
- 1990s: 协同过滤 + 基于内容
- 2000s: 矩阵分解 (Netflix Prize)
- 2010s: 深度学习 (CNN/RNN/GNN/Transformer)
- 2020s: 生成式推荐 (LLM/Diffusion/LRM) — 从判别式匹配到生成式合成