Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2601.05171

帮助 | 高级搜索

计算机科学 > 计算与语言

arXiv:2601.05171 (cs)
[提交于 2026年1月8日 ]

标题: 内心之外:为长期个性化对话系统演变以用户为中心的核心记忆树

标题: Inside Out: Evolving User-Centric Core Memory Trees for Long-Term Personalized Dialogue Systems

Authors:Jihao Zhao, Ding Chen, Zhaoxin Fan, Kerun Xu, Mengting Hu, Bo Tang, Feiyu Xiong, Zhiyu li
摘要: 现有的长期个性化对话系统难以在无限制的交互流与有限的上下文约束之间取得平衡,常常导致记忆噪声积累、推理退化和个性不一致。 为解决这些挑战,本文提出了Inside Out,一种利用全局维护的PersonaTree作为长期用户画像载体的框架。 通过用初始模式约束主干,并更新分支和叶子,PersonaTree实现了可控的增长,在保持一致性的同时实现记忆压缩。 此外,我们通过基于过程的奖励进行强化学习训练了一个轻量级的MemListener,以生成结构化、可执行和可解释的{添加,更新,删除,无操作}操作,从而支持个性化树的动态演化。 在生成响应时,PersonaTree被直接用于在延迟敏感的场景中增强输出;当用户需要更多细节时,代理模式被触发,在PersonaTree的约束下按需引入细节。 实验表明,PersonaTree在抑制上下文噪声和保持个性一致性方面优于全文拼接和各种个性化记忆系统。 值得注意的是,小型的MemListener模型在记忆操作决策方面达到了与强大推理模型如DeepSeek-R1-0528和Gemini-3-Pro相当甚至更优的性能。
摘要: Existing long-term personalized dialogue systems struggle to reconcile unbounded interaction streams with finite context constraints, often succumbing to memory noise accumulation, reasoning degradation, and persona inconsistency. To address these challenges, this paper proposes Inside Out, a framework that utilizes a globally maintained PersonaTree as the carrier of long-term user profiling. By constraining the trunk with an initial schema and updating the branches and leaves, PersonaTree enables controllable growth, achieving memory compression while preserving consistency. Moreover, we train a lightweight MemListener via reinforcement learning with process-based rewards to produce structured, executable, and interpretable {ADD, UPDATE, DELETE, NO_OP} operations, thereby supporting the dynamic evolution of the personalized tree. During response generation, PersonaTree is directly leveraged to enhance outputs in latency-sensitive scenarios; when users require more details, the agentic mode is triggered to introduce details on-demand under the constraints of the PersonaTree. Experiments show that PersonaTree outperforms full-text concatenation and various personalized memory systems in suppressing contextual noise and maintaining persona consistency. Notably, the small MemListener model achieves memory-operation decision performance comparable to, or even surpassing, powerful reasoning models such as DeepSeek-R1-0528 and Gemini-3-Pro.
主题: 计算与语言 (cs.CL)
引用方式: arXiv:2601.05171 [cs.CL]
  (或者 arXiv:2601.05171v1 [cs.CL] 对于此版本)
  https://doi.org/10.48550/arXiv.2601.05171
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Zhiyu Li [查看电子邮件]
[v1] 星期四, 2026 年 1 月 8 日 17:59:11 UTC (11,607 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
cs.CL
< 上一篇   |   下一篇 >
新的 | 最近的 | 2026-01
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号