欧洲杯

您当前位置: 欧洲杯  >  欧洲杯  >  欧洲杯新闻  >  正文

欧洲杯新闻

欧洲杯 多篇论文被WWW 2026接收

发布日期:2026-03-26 发布人: 点击量:

(一)

欧洲杯 王英教授团队论文"SeaRAG: Reducing Hallucination in Retrieval-Augmented Generation via Statement-Entity Adaptive Ranking" WWW 2026 录用,论文第一作者为王英教授和管仁初教授指导的2021级博士生苑小松,王英教授为通讯作者,其他合作者来自上海交通大学和国防科技大学。

检索增强生成(RAG)通过引入外部知识可以缓解大语言模型(LLMs)的幻觉问题,但当前的“全检索(retrieve-for-all)”策略不仅需要大量的计算开销,还可能因引入不相关的噪声文档而损害准确性,而现有的自适应方法忽略了实体与陈述层面的结合,且多依赖于生成后的检测。本文首先通过探测不确定性来分析自适应 RAG 方法,发现实体级和陈述级验证可作为无需训练的幻觉检测信号。基于此见解,本文提出了 SeaRAG,一种无需训练的自适应 RAG 框架。该框架在生成过程中动态地对“实体级”(针对具体名词)和“陈述级”(针对整体论述)进行联合检测,仅在识别到高风险时触发检索,并利用熵减准则对检索到的文档进行排序,从而筛选出更能降低不确定性的候选进行自我修正。在 TriviaQAHotpotQA 等多个问答基准及 Llama-3Mistral 等多种 LLMs 上进行的实验结果展示了回答准确率的一致提升和检索频率的显著下降。SeaRAG TriviaQA 上的表现比全检索策略提升 11.12%,同时将检索频率从 100% 大幅降低至45.2%。实验证明了该方法提供了一种高效且实时的幻觉控制机制,在显著减少冗余检索的同时提升了事实准确性。


(二)

欧洲杯 罗仁强助理教授的三篇论文“FairGE: Fairness-aware Graph Encoding in Incomplete Social Networks”, “FairGU: Fairness-aware Graph Unlearning in Social Networks”, “Bridging Semantic Understanding and Popularity Bias with LLMs”被CCF A类会议WWW 2026接收。论文第一作者均为罗仁强助理教授,其他合作者涵盖了多个国内外机构,包括:阿德莱德大学(澳大利亚)、皇家墨尔本理工(澳大利亚)、香港理工广州分校、大连理工大学、暨南大学、浙江工商大学、浙江工业大学。

FairGE: Fairness-aware Graph Encoding in Incomplete Social Networks论文简介:Graph Transformers正越来越多地应用于社交网络分析,然而其部署常常受到公平性问题的制约。在不完整的社交网络中,这一问题尤为关键,因为由于隐私和伦理限制,敏感属性常常缺失。现有的解决方案通常会生成这些不完整的属性,但这可能会引入额外的偏差,并进一步损害用户隐私。为应对这一挑战,本文提出了FairGE(公平图编码,Fair Graph Encoding),这是一种面向不完整社交网络中Graph Transformers的公平感知框架。FairGE并非生成敏感属性,而是直接通过谱图理论对公平性进行编码。通过利用主特征向量来表示结构信息,并用零填充不完整的敏感属性以保持独立性,FairGE无需进行数据重建即可确保公平性。理论分析表明,该方法抑制了非主谱成分的影响,从而提高了公平性。在七个真实社交网络数据集上进行的广泛实验证实,与现有最先进的基线方法相比,FairGE在统计均等性和机会均等性方面至少提升了16%

FairGU: Fairness-aware Graph Unlearning in Social Networks论文简介:图遗忘(Graph Unlearning)已成为支持可持续且保护隐私的社交网络的关键机制,它使模型能够消除已删除节点的影响,从而更好地保护用户信息。然而,我们注意到,现有的图遗忘技术对敏感属性的保护不足,与传统图学习方法相比,往往会导致算法公平性下降。为弥补这一差距,我们提出了FairGU,这是一个公平感知的图遗忘框架,旨在遗忘过程中同时维护模型的实用性和公平性。FairGU将一个专门的公平感知模块与有效的数据保护策略相结合,确保在删除节点时,敏感属性既不会被无意中放大,也不会在结构上暴露。通过在多个真实数据集上进行广泛实验,我们证明,在准确性和公平性指标方面,FairGU始终优于最先进的图遗忘方法和公平性增强的图学习基线方法。我们的研究结果揭示了当前遗忘实践中先前被忽视的风险,并将FairGU确立为下一代社会可持续网络系统的稳健且公平的解决方案。

Bridging Semantic Understanding and Popularity Bias with LLMs论文简介:在推荐系统中,对流行度偏差的语义理解是一项至关重要却尚未充分探索的挑战,因为热门项目往往会以牺牲小众内容为代价而受到青睐。大多数现有的去偏差方法将流行度偏差的语义理解视为多样性提升或长尾覆盖问题,却忽略了体现偏差本身因果根源的更深层次语义层面。因此,这种浅显的解释既限制了它们的去偏差效果,也影响了推荐准确性。在本文中,我们提出了FairLRM这一创新框架,通过大型语言模型推荐(RecLLM)弥合了流行度偏差语义理解方面的差距。FairLRM将流行度偏差分解为项目端和用户端两个组成部分,并利用基于结构化指令的提示词来增强模型对全局项目分布和个体用户偏好的理解。与依赖多样性去偏差等表层特征的传统方法不同,FairLRM提升了模型在语义层面解读并解决潜在偏差的能力。通过实证评估,我们发现FairLRM显著提升了公平性和推荐准确性,为增强流行度偏差的语义理解提供了一种更具语义感知性和可靠性的方法。


(三)

欧洲杯 管仁初教授和丰小月教授共同指导的硕士生李梦宇和博士生刘永皓的论文“Simple-Sampling and Hard-Mixup with Prototypes to Rebalance Contrastive Learning for Text Classification”被WWW2026收录。论文的其他作者包括来自意大利特伦托大学的Fausto Giunchiglia教授和欧洲杯 的李熙铭教授,通讯作者是管仁初教授和丰小月教授。

近年来提出的监督对比学习因其强大的特征表示学习能力和良好的鲁棒性在文本分类任务中受到广泛关注。然而现有研究仍然存在不足之处。首先,许多文本数据集存在类别不平衡问题,而监督对比学习对数据不平衡极为敏感。其次,现有方法通常采用独立的分类和监督对比学习分支进行表示学习,两者之间缺乏明确的相互指导机制。为此,论文提出了一种面向类别不平衡文本分类任务的新模型SharpReCL。具体而言,首先在平衡分类分支中获取每个类别的原型向量,作为该类别的表征。随后,通过显式利用这些原型向量,为每个类别构建规模一致且充分的目标样本集合。实验结果表明,SharpReCL表现优异,在多个数据集上甚至能够超过当前流行的大语言模型的性能表现。


ACM Web ConferenceWWW)是计算机交叉/综合/新兴最具影响力的会议之一,在数据挖掘和人工智能领域有着极高的声誉和影响力,是中国计算机学会推荐的A类会议。