ACL 是自然语言处理(NLP)领域影响力最大的顶级国际会议,由国际计算语言学协会每年举办一次,也是中国计算机学会(CCF)推荐的A类会议。今年在奥地利维也纳举办的是第63届ACL大会(7月27日-8月1日)。
这届大会创下了几个引人关注的记录:
投稿量激增:总投稿数达到了史无前例的8000多篇(去年是4407篇),这些稿件分为主会论文和Findings两部分。
录用率:主会论文的接收率为 20.3%,Findings 的接收率为 16.7%。
有意思的是作者分布:
在所有论文的第一作者中, 超过半数(51.3%)来自中国,这个比例相比去年(30.6%)有显著提升。
美国作者的数量排在第二位,但占比为14.0%。
获奖方面, 今年的奖项非常丰富:
大会共评选出4篇最佳论文、2篇最佳社会影响力论文、3篇最佳资源论文、3篇最佳主题论文、26篇杰出论文。
其他还有2篇TACL最佳论文、1篇最佳Demo论文以及47篇SAC Highlights。
在荣获本届ACL最佳论文的4个团队中:DeepSeek团队(梁文锋参与撰写)和北京大学杨耀东团队各摘得一篇。另外两篇则分别归属CISPA 亥姆霍兹信息安全中心 & TCS Research & 微软团队以及斯坦福大学 & Cornell Tech团队。
北京大学杨耀东团队的论文题为:Language Models Resist Alignment: Evidence From Data Compression。该研究从理论与实验层面系统性揭示了大语言模型在对齐过程中的抵抗与回弹机制。
论文的第一作者均为杨耀东课题组成员,包括:吉嘉铭,王恺乐,邱天异,陈博远,周嘉懿。论文的通讯作者为杨耀东博士,现任北京大学人工智能研究院研究员、智源学者(大模型安全负责人)、北大 - 灵初智能联合实验室首席科学家。
另一篇北大和DeepSeek合作的论文题为:Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention,该研究提出了一种名为NSA(Native Sparse Attention)的全新注意力机制,从根本上解决了大语言模型在处理长文本时面临的算力瓶颈与性能权衡的不可能三角,实现了模型性能与计算效率的双重飞跃。