
SurveyGO卷姬
SurveyGO卷姬简介
卷姬是什么?
SurveyGO(卷姬),清华面壁智能团队推出的ai论文写作工具,采用LLMxMapReduce-V2技术实现文献智能聚合,能根据用户输入主题快速生成结构严谨、引用可靠的学术综述。
为什么叫卷姬?
因SurveyGO在文献综述写作方面表现出色,能快速处理大量文献,如同“卷”起学术内卷,且名字中“卷姬”发音可爱,所以被大家赋予了这个亲切的外号。
卷姬核心技术
它采用了自研的LLMxMapReduce - V2技术,借助文本卷积算法实现多篇参考文献的聚合,代替现有方法中常用的检索,从而实现对全部参考章节的充分利用。该技术通过以下三个阶段实现长文本处理:
初始化阶段:通过框架初始化构建知识骨架,采用“原料初处理”策略生成结构化摘要。
框架优化阶段:运用7层卷积神经网络结合信息熵评估,模拟“厨艺争霸赛”式迭代优化,经3轮自优化筛选出最佳知识框架。
综述构建阶段:采用层级化内容生成机制,确保父章节与子模块的逻辑自洽。
卷姬技术原理
LLMxMapReduce-V2 技术:用文本卷积算法聚合多篇参考文献,类似于卷积神经网络(CNN)在图像处理中的应用,逐步将局部信息抽象为高级全局表示。模型首先关注部分引用文章(局部信息),基于多层卷积操作,将局部信息整合成更全面的结构化信息,例如文章的段落结构和主题。引入信息熵估计模块,指导卷积过程,确保在测试时缩放过程不断提升结果的信息含量。
解决上下文长度限制:传统的检索增强生成(RAG)方法基于检索与查询最相关的文本片段来生成内容,容易忽略一些虽然与主题相关但无法直接匹配语义相似度的重要内容。基于聚合多篇文献,而不是简单检索,充分用所有参考文献的信息,避免信息丢失。
高质量内容生成:基于多层卷积操作,提取文献中的关键信息,整合成结构化的输出,确保生成文章的逻辑性和连贯性。自动引用相关的文献和资料,确保生成内容的可信度和专业性。
评估基准:为科学评估生成文章的质量,创建高质量的调查写作基准SurveyEval,是计算机科学领域首个将调查与完整参考文献相结合的可扩展评估基准。
卷姬使用方法步骤
使用方法
普通模式:适用于快速生成框架性综述。用户只需输入论文标题和关键词描述(支持中英文),系统自动联网检索相关文献并整合。例如输入《老年IPF患者的治疗进展》,SurveyGO会自动拆解为「老年」「IPF」等子议题,生成逻辑严密的2.5万字报告。
专业模式:支持自定义素材来源,可上传本地文献(PDF/Word)或指定数据库(如知网、arXiv),适合需要深度控制参考文献的课题。同时,上传文件生成的内容可设为「不公开」,避免敏感数据泄露。
操作步骤
模式选择:根据需求选择普通模式或专业模式,并完成相应信息填写。
提交与等待:完成选题提交后,用户无需任何操作即可关闭页面。系统通过分布式计算框架并行处理文献,生成时间约1小时(高峰期可能延长)。期间可随时登录查看进度,或在「写作需求表」中围观其他用户的选题并点赞互动。
结果获取:生成完成后,点击标题直接跳转飞书文档,内容包含完整目录、正文、参考文献(文内引用 + 文末列表),格式可直接复制到论文中。
卷姬优势和不足
优势
技术突破:采用自研LLMxMapReduce - V2技术,通过文本卷积算法聚合多篇文献,文献利用率提升,避免传统RAG技术的信息碎片化问题。
内容质量高:生成2.5万字以上的长综述,结构层次分明(现象→原因→对策,宏观→微观),逻辑严谨且包含专业图表。
多语言支持:支持中英文生成,中文报告自动梳理知识脉络图。
易用性高:无需复杂操作,普通/专业双模式可选,注册即用。
不足
自定义限制:缺乏细粒度设置(如限定引用文献语种、排除特定来源),无法满足高阶研究者的个性化需求。
隐私风险:默认公开在线检索生成的文章,敏感课题易被围观。
语言支持不均衡:中文模式含逻辑图,英文模式无此功能。
引用可靠性:引用来源覆盖知乎、36氪、高校论坛等平台,时效性与相关性较高,幻觉率低,但存在少量非权威引用(如知乎匿名内容)。
处理效率波动:高峰期需排队,依赖用户点赞提升优先级。
卷姬项目地址
项目官网:https://surveygo.thunlp.org/
GitHub仓库:https://github.com/thunlp/LLMxMapReduce
HuggingFace模型库:https://huggingface.co/datasets/R0k1e/SurveyEval
arXiv技术论文:https://arxiv.org/pdf/2504.05732
相关资讯: