← 返回首页

基于生成式推荐的语言模型新词汇接地令牌初始化

arXiv: 2604.02324v1

论文信息

标题: Grounded Token Initialization for New Vocabulary in LMs for Generative Recommendation

作者: Daiwei Chen, Zhoutong Fu, Chengming Jiang, et al.

发布日期: 2026-04-02

arXiv ID: 2604.02324v1

PDF链接: 下载PDF

论文背景与研究动机:语言模型词汇扩展的初始化瓶颈

在人工智能领域,尤其是自然语言处理(NLP)中,大型语言模型(LMs)已成为基石。然而,一个普遍存在的挑战是:如何让一个在通用语料上预训练好的模型,高效地适应一个包含全新概念或实体的特定领域?例如,在生成式推荐系统中,我们需要模型理解并生成代表特定商品、音乐或视频的“语义ID”(Semantic-ID)令牌。标准的做法是,在模型的词汇表中添加这些新令牌,将其嵌入向量初始化为现有词汇嵌入的均值,然后通过监督式微调来学习其表示。

这篇题为《Grounded Token Initialization for New Vocabulary in LMs for Generative Recommendation》的论文,正是对这一“均值初始化”标准实践提出了深刻的质疑。研究团队通过系统的光谱分析和几何诊断发现,均值初始化会将所有新令牌的初始向量“挤压”到一个退化的子空间中。形象地说,这就像在游戏开始前,将所有新角色都放在地图上同一个模糊的、没有特征的点上。这种初始化方式抹杀了新令牌之间的初始差异性,导致后续的微调过程需要耗费大量精力去“拉开”这些本应不同的表示,且往往难以完全恢复其应有的语义结构。

这一发现揭示了一个此前被忽视的关键瓶颈:令牌初始化。论文的核心动机在于,如果初始化质量如此重要,那么我们能否设计一种更好的初始化策略,让新令牌在微调开始前就拥有更合理、更具区分度的“起点”?基于此,研究者提出了“接地令牌初始化假说”:在微调之前,利用语言知识将这些新令牌“锚定”在预训练模型的嵌入空间中,能够更好地帮助模型利用其通用知识来理解新令牌所属的领域。

核心方法:接地令牌初始化(GTI)的技术细节

GTI方法的核心思想是在正式微调模型之前,插入一个轻量级的“接地”阶段。这个阶段不更新模型的主干参数,只专注于为新增的词汇令牌学习一个高质量的初始嵌入矩阵。

1. 问题形式化: 假设预训练语言模型有一个词汇表 VpretrainV_{pretrain} 和对应的嵌入矩阵 EpretrainRVpretrain×dE_{pretrain} \in \mathbb{R}^{|V_{pretrain}| \times d}。现在需要扩展模型以处理一组新令牌 VnewV_{new}(例如,商品ID)。标准均值初始化会为每个新令牌分配相同的向量:enew=mean(Epretrain)e_{new} = \text{mean}(E_{pretrain})。GTI的目标是为每个新令牌 tVnewt \in V_{new} 学习一个独特的初始嵌入 gtg_t

2. 接地阶段: GTI利用“配对的语言监督”来完成这一学习。所谓配对监督,指的是每个新令牌 tt 都关联着一个或多个自然语言描述(例如,商品标题、描述文本)。设 DtD_t 为令牌 tt 对应的描述文本。

  • 输入:将描述文本 DtD_t 输入冻结的(不更新权重)预训练语言模型,通过其最后一层或某层的隐藏状态,获取一个代表该文本语义的“描述嵌入”向量 dtd_t。这可以是一个[CLS]标记的表示,也可以是整个序列的平均池化。
  • 目标:学习一个从新令牌索引到嵌入空间的映射(即新的嵌入查找表),使得每个新令牌的嵌入 gtg_t 与其描述嵌入 dtd_t 在语义上对齐。
  • 优化:GTI训练一个轻量级的投影层(例如,一个简单的线性层或小型MLP),其输入是新令牌的随机初始嵌入,输出是预测的嵌入。损失函数鼓励预测嵌入 gtg_t 接近其对应的描述嵌入 dtd_t。一个简单的实现是使用均方误差损失:L=tVnewProjection(etrand)dt2L = \sum_{t \in V_{new}} || \text{Projection}(e_{t}^{rand}) - d_t ||^2。这里的关键是,只有这个投影层和新令牌的嵌入参数被更新,预训练模型的其他部分保持冻结。
  • 输出:接地阶段结束后,我们得到了一组经过优化的新令牌初始嵌入 {gt}\{g_t\},它们被期望分布在预训练嵌入空间中与其语言描述语义相近的区域。

3. 后续微调: 在GTI阶段之后,模型才进入标准的监督式微调流程。此时,新令牌的嵌入已经从一个有意义的起点开始,与模型已有的语言知识建立了初步联系。微调过程在此基础之上,根据下游任务(如推荐生成)的具体目标进一步调整所有可训练参数。

创新点与核心贡献

本论文的贡献是多方面的,兼具理论洞察力和实践价值:

  1. 诊断性发现:论文首次通过严谨的谱分析和几何可视化,系统性地揭示了均值初始化策略的内在缺陷——导致新令牌表示空间的退化与坍缩。这为理解词汇扩展的困难提供了一个新的理论视角,将“初始化质量”确立为一个关键瓶颈。

  2. 提出新假说:基于上述诊断,论文创新性地提出了“接地令牌初始化假说”。该假说将成功扩展词汇的关键,前置于微调阶段,强调利用预训练模型已有的、丰富的语言知识来引导新令牌的初始定位。

  3. 提出轻量级解决方案GTI:论文将假说操作化为一个具体、轻量且易于实现的方法。GTI不需要复杂的架构修改或大量的额外计算,仅通过一个快速的、基于语言描述的预对齐阶段,就能显著提升后续性能。

  4. 实验验证全面:作者在多个生成式推荐基准(包括工业级数据集和公开数据集)上进行了广泛实验,证明GTI在大多数评估设置下都优于均值初始化和现有的辅助任务适应方法,验证了其有效性和鲁棒性。

  5. 提供持续性分析:论文进一步分析表明,通过GTI初始化的嵌入,在微调后仍能保持更丰富的令牌间结构。这证实了高质量的初始化具有持久效益,而不仅仅是提供一个短暂的“热身”效果。

实验结果分析

论文的实验设计充分支撑了其论点:

  • 对比基线:GTI与标准均值初始化、以及一些更复杂的自适应方法(如通过辅助自然语言任务进行微调)进行了对比。
  • 评估任务:在生成式推荐场景下,主要评估模型根据用户历史生成相关新令牌(商品ID)的能力,常用指标包括Recall@K, NDCG@K等。
  • 核心结果:在绝大多数实验设置下,GTI都取得了最佳性能。这表明,在微调前投入少量资源进行有意义的初始化,其收益远大于直接开始微调或使用复杂的多任务学习。
  • 分析验证
    • 几何结构:可视化显示,GTI初始化的新令牌嵌入在预训练空间中分布更分散、结构更清晰,而均值初始化的嵌入则紧密簇拥在一起。
    • 光谱分析:对嵌入矩阵的奇异值分析表明,GTI初始化后的新令牌嵌入矩阵具有更高的有效秩,意味着其表征能力更强,信息更丰富。
    • 持久性:跟踪微调过程中新令牌嵌入的相似性变化发现,GTI带来的初始区分度能够更好地保持到训练结束,说明模型从更好的起点学到了更稳固的表示。

实践应用建议与未来方向

对于AI工程师与研究者的实践建议:

  1. 立即应用:在任何需要为预训练LM(如BERT, GPT, T5等)添加领域特定令牌(如新产品ID、专业术语、内部代码)的项目中,强烈建议放弃简单的均值初始化,转而实现GTI或类似策略。这是一个“低垂的果实”,能以极小的额外成本换取显著的性能提升。
  2. 实现要点
    • 获取描述文本:为新令牌收集高质量、简洁的自然语言描述是关键。这可以是商品标题、文章摘要、代码注释等。
    • 轻量级设计:接地阶段应保持轻量。使用一个简单的投影网络,并在小规模数据上快速训练(通常只需几个epoch)。
    • 嵌入冻结可选:在接地阶段,可以只训练新令牌嵌入,也可以同时微调投影层。论文表明即使冻结投影层,仅训练嵌入也能获得大部分收益,这进一步简化了实现。
  3. 超越推荐系统:GTI的思想具有普适性。可广泛应用于机器翻译(添加新词)、领域自适应问答、法律或医疗文本处理等任何需要词汇扩展的场景。

未来研究方向:

  1. 无监督/弱监督GTI:探索当没有精确的配对描述时,如何利用更弱的信号(如上下文共现信息、知识图谱关系)进行接地初始化。
  2. 动态词汇扩展:研究如何将GTI应用于在线学习场景,其中新令牌可能随时间不断流入,需要高效、增量式的初始化。
  3. 理论深化:进一步从理论层面分析不同初始化策略对优化景观和泛化能力的影响,为初始化方法提供更坚实的理论指导。
  4. 多模态接地:对于多模态模型,新令牌的初始化不仅可以基于文本描述,还可以基于图像、音频等多模态信息进行“接地”。
  5. 与参数高效微调结合:研究GTI如何与LoRA、Adapter等参数高效微调技术协同工作,构建更强大的轻量级领域适应流程。

总结与展望

本文从一个被忽视的细节——新词汇令牌的初始化——入手,通过深刻的诊断分析,揭示了标准实践中的严重缺陷,并提出了一个优雅而有效的解决方案GTI。这项工作的重要意义在于,它改变了我们扩展语言模型的范式:从“直接微调,让数据说话”转变为“先对齐,后精调”。它强调了在利用预训练模型强大能力时,尊重并衔接其已有知识结构的重要性。

GTI的成功印证了机器学习中一个朴素但常被遗忘的真理:一个好的起点至关重要。在大型语言模型日益成为AI基础设施的今天,如何高效、轻量地使其适应千变万化的下游任务,是决定其实际应用广度和深度的关键。本文为这一方向开辟了一条富有前景的路径。展望未来,词汇与表示的初始化问题,连同更广泛的模型适配与知识注入问题,将继续是AI研究和工程实践的核心焦点。GTI所体现的“利用语言先验进行引导”的思想,有望在更多模型扩展和适应场景中开花结果。