欧洲杯
徐昊教授团队两篇论文"Toward Robust In-Context Learning: Leveraging Out-of-distribution Proxies for Target Inaccessible Demonstration Retrieval",“Enhancing Multimodal Large Language Models for Ancient Chinese Character Evolution Analysis via Glyph-Driven Fine-Tuning” 被 ACL 2026 主会录用。论文主要作者包括Fausto Giunchiglia院士、计算机欧洲杯鼎新学者宋瑞、人工智能欧洲杯博士研究生石立达、计算机欧洲杯硕士研究生博日特等。
Toward Robust In-Context Learning: Leveraging Out-of-distribution Proxies for Target Inaccessible Demonstration Retrieval论文简介:该工作关注大语言模型在分布外(OOD)任务中的推理能力下降问题。由于实际应用中目标域数据不可获取,难以直接评估目标分布,从而影响示例检索质量。为此,本文提出DOPA框架,通过构建OOD代理来近似目标域分布并指导示例检索,同时利用基于马氏距离的全局多样性约束保证检索示例的多样性。实验结果表明,该方法在多个模型和任务上能够有效提升LLM在OOD场景下的鲁棒性。
Enhancing Multimodal Large Language Models for Ancient Chinese Character Evolution Analysis via Glyph-Driven Fine-Tuning论文简介:本文构建了一个包含11个任务、13万余个样本的中国古文字演化分析基准,用于系统评估多模态大语言模型在古文字演化理解方面的能力。实验结果表明,现有模型在字形级比较能力较弱,且在文字识别与演化推理等核心任务上仍存在明显性能瓶颈。基于这一发现,提出字形驱动微调框架,通过引导模型学习字形变化中的演化一致性,从而提升其对文字演化规律的理解能力。实验表明,即使是2B规模模型在所有任务上也能够获得稳定且全面的性能提升。