王选所师生参加NLPCC 2021
第10届国际自然语言处理和中文计算会议(NLPCC)于2021年10月13日至17日在青岛举行。北京大学王选计算机研究所赵东岩老师、万小军老师、冯岩松老师,研究生高莘、吴雨婷、秦文涛和杜浩伟参加了此次会议。
NLPCC会场合影
NLPCC从2012年开始举办,至今已成功举办10届。尽管NLPCC历史不算悠久,但发展迅速。在最新的CCF推荐国际学术会议和期刊目录中,NLPCC被评选为C类会议,这说明其已经在NLP领域具备国际影响力,已然成为国内(甚至国际)中文NLP领域最为重要的会议之一。本届会议共收到有效投稿446篇,录用104篇,录用率为23.3%,其接收的论文覆盖了对话系统、问答系统、信息抽取、机器翻译、情感分析、文本摘要等自然语言处理领域众多研究方向。
王选所师生在本次会议上共发表3篇学术文章,并在会议上做了口头报告和海报展示。论文具体信息如下:
[1] Wentao Qin, Dongyan Zhao. Background Semantic Information Improves Verbal Metaphor Identification.
该论文针对动词隐喻句的特点,设计了利用外部语义知识的识别模型。在使用BERT编码句子的基础上,引入当前句子中主语、谓语、宾语的外部语义信息,和自身进行交互,用融合得到的向量进行预测。在公开数据集上达到了SOTA的水平。
[2] Wentao Qin, Dongyan Zhao. Enhancing Model Robustness via Lexical Distilling.
该论文提出了一种增强序列模型鲁棒性的框架。通过引入Lexial Distiller模块,让模型选择是否保留输入序列中的各个位置的词,加以对抗学习的方式,让保留部分的编码和原序列的编码相似。通过这种方式,能够让模型关注到输入中的主要部分,从而提升了模型对噪音输入的容错能力。
[3] Haowei Du, Jizhi Tang, and Dongyan Zhao. Sentence Ordering by Context-enhanced Pairwise Comparison.
本文提出一种基于上下文增强的逐对比较句子语义的模型,通过补充上下文信息预测每一对句子的相对顺序,再用拓扑排序连接成为一段文本。实验表明该算法相比已有工作组合而成的基准算法,具有更好的性能。
上一篇 下一篇