Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.15706

帮助 | 高级搜索

计算机科学 > 信息检索

arXiv:2510.15706 (cs)
[提交于 2025年10月17日 ]

标题: GraphMind:加速科学发现的交互式新颖性评估系统

标题: GraphMind: Interactive Novelty Assessment System for Accelerating Scientific Discovery

Authors:Italo Luis da Silva, Hanqi Yan, Lin Gui, Yulan He
摘要: 大型语言模型(LLMs)表现出强大的推理和文本生成能力,促使它们被用于科学文献分析,包括新颖性评估。 虽然评估科学论文的新颖性对于同行评审至关重要,但需要对相关工作有广泛的知识,而并非所有评审人员都具备这一点。 尽管近期关于LLM辅助科学文献分析的研究支持文献比较,但现有方法透明度有限,并且缺乏通过信息检索模块进行结果可追溯性的机制。 为解决这一差距,我们引入了$\textbf{GraphMind}$,一个易于使用的交互式网络工具,旨在帮助用户评估科学论文或草拟想法的新颖性。 特别地,$\textbf{GraphMind}$使用户能够捕捉科学论文的主要结构,通过各种视角探索相关想法,并通过提供可验证的上下文洞察来评估新颖性。 $\textbf{GraphMind}$使用户能够标注论文的关键元素,通过各种关系探索相关论文,并通过上下文洞察评估新颖性。 该工具集成了arXiv和Semantic Scholar等外部API与LLMs,以支持论文的注释、提取、检索和分类。 这种组合为用户提供了科学理念核心贡献及其与现有工作的联系的丰富、结构化的视图。 $\textbf{GraphMind}$可在 https://oyarsa.github.io/graphmind 获取,演示视频可在 https://youtu.be/wKbjQpSvwJg 查看。 源代码可在 https://github.com/oyarsa/graphmind 获取。
摘要: Large Language Models (LLMs) show strong reasoning and text generation capabilities, prompting their use in scientific literature analysis, including novelty assessment. While evaluating novelty of scientific papers is crucial for peer review, it requires extensive knowledge of related work, something not all reviewers have. While recent work on LLM-assisted scientific literature analysis supports literature comparison, existing approaches offer limited transparency and lack mechanisms for result traceability via an information retrieval module. To address this gap, we introduce $\textbf{GraphMind}$, an easy-to-use interactive web tool designed to assist users in evaluating the novelty of scientific papers or drafted ideas. Specially, $\textbf{GraphMind}$ enables users to capture the main structure of a scientific paper, explore related ideas through various perspectives, and assess novelty via providing verifiable contextual insights. $\textbf{GraphMind}$ enables users to annotate key elements of a paper, explore related papers through various relationships, and assess novelty with contextual insight. This tool integrates external APIs such as arXiv and Semantic Scholar with LLMs to support annotation, extraction, retrieval and classification of papers. This combination provides users with a rich, structured view of a scientific idea's core contributions and its connections to existing work. $\textbf{GraphMind}$ is available at https://oyarsa.github.io/graphmind and a demonstration video at https://youtu.be/wKbjQpSvwJg. The source code is available at https://github.com/oyarsa/graphmind.
评论: 9页,6图,3表,EMNLP 2025 展示论文
主题: 信息检索 (cs.IR) ; 计算与语言 (cs.CL)
引用方式: arXiv:2510.15706 [cs.IR]
  (或者 arXiv:2510.15706v1 [cs.IR] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.15706
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Italo Luis Da Silva [查看电子邮件]
[v1] 星期五, 2025 年 10 月 17 日 14:49:07 UTC (3,090 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.IR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.CL

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号