Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.07186

帮助 | 高级搜索

计算机科学 > 人工智能

arXiv:2508.07186 (cs)
[提交于 2025年8月10日 ]

标题: 多维摘要代理人在企业表格上的上下文感知推理

标题: Multi-Dimensional Summarization Agents with Context-Aware Reasoning over Enterprise Tables

Authors:Amit Dhanda
摘要: 我们提出了一种新颖的框架,用于使用基于大型语言模型(LLM)的代理对多维结构化企业数据进行摘要。 传统表格到文本模型通常缺乏在层次结构和上下文感知差异之间进行推理的能力,这在业务报告任务中是必不可少的。 我们的方法引入了一个多代理流程,通过切片、方差检测、上下文构建和基于LLM的生成代理来提取、分析和总结多维数据。 我们的结果表明,所提出的框架优于传统方法,在底层数据的忠实度达到83%,显著变化的覆盖范围更优,并且对于决策关键见解的相关性评分(4.4/5)很高。 在涉及细微权衡的类别中,改进尤为明显,例如由于价格变动导致的收入增加而单位销量下降,竞争对手的方法要么忽略,要么以有限的特异性来处理。 我们在Kaggle数据集上评估了该框架,并展示了在忠实度、相关性和见解质量方面相对于基线表格摘要方法的显著改进。
摘要: We propose a novel framework for summarizing structured enterprise data across multiple dimensions using large language model (LLM)-based agents. Traditional table-to-text models often lack the capacity to reason across hierarchical structures and context-aware deltas, which are essential in business reporting tasks. Our method introduces a multi-agent pipeline that extracts, analyzes, and summarizes multi-dimensional data using agents for slicing, variance detection, context construction, and LLM-based generation. Our results show that the proposed framework outperforms traditional approaches, achieving 83\% faithfulness to underlying data, superior coverage of significant changes, and high relevance scores (4.4/5) for decision-critical insights. The improvements are especially pronounced in categories involving subtle trade-offs, such as increased revenue due to price changes amid declining unit volumes, which competing methods either overlook or address with limited specificity. We evaluate the framework on Kaggle datasets and demonstrate significant improvements in faithfulness, relevance, and insight quality over baseline table summarization approaches.
主题: 人工智能 (cs.AI) ; 多智能体系统 (cs.MA)
引用方式: arXiv:2508.07186 [cs.AI]
  (或者 arXiv:2508.07186v1 [cs.AI] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.07186
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Amit Dhanda [查看电子邮件]
[v1] 星期日, 2025 年 8 月 10 日 05:27:42 UTC (26 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.AI
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
cs.MA

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号