王选所网络信息处理实验室学生参加 COLING 2024

国际计算语言学会议COLING(International Conference on Computational Linguistics),是自然语言处理和计算语言学领域最具权威性的四大会议之一,与其他会议ACL、EMNLP和NAACL齐名,并被中国计算机学会(CCF)推荐为人工智能领域的B类国际会议。今年,计算语言学会议COLING与语言资源与评测会议LREC共同举办,于2024年5月20日至5月25日在意大利都灵的Lingotto会议中心隆重召开。会议期间,来自王选所网络信息处理实验室的研究生李金鹏和黄曲哲就他们的研究成果进行了展示,并与国际同行进行了深入交流。

COLING会场照片

黄曲哲同学在COLING会场

李金鹏同学做海报展示

王选所研究生在COLING2024上发表的论文信息如下:

Jinpeng Li, Jiaze Chen, Huadong Chen, Dongyan Zhao, Rui Yan. Multilingual Generation in Abstractive Summarization: A Comparative Study.

该论文致力于对多语言生成任务进行全面评估,特别聚焦于多语言摘要生成任务。论文分析了三种不同资源场景(高资源、低资源和零样本)下的实验结果。首先根据不同的建模原则,将多语言生成方法分为三类:微调法、参数隔离法和约束法。随后,使用涵盖六种语言的两个数据集,在不同实验设置下对这些方法进行了全面比较。这一分析揭示了每种方法的独特优势与局限性。此外,论文提出了一种创新且简便的自动化评估指标,旨在衡量多语言生成模型的语言混合()程度,以应对语言混合引发的伪相关问题,从而推动多语言文本生成领域的发展。

Mingxu Tao, Quzhe Huang, Kun Xu, Liwei Chen, Yansong Feng, Dongyan Zhao. Probing Multimodal Large Language Models for Global and Local Semantic Representation.

大型语言模型的成功激发了研究人员将其卓越的表示能力转移到其他模态。最近的几项研究利用图像字幕对齐数据集训练多模态大型语言模型(),这些模型在图像到文本任务上实现了最先进的性能。然而,鲜有研究探讨是否真正理解完整的图像信息,即全局信息,还是仅能捕捉一些局部对象信息。在本研究中,我们发现模型的中间层可以编码更多的全局语义信息,其表示向量在视觉语言蕴涵任务中表现更好,而不是顶层。我们进一步通过目标检测任务探究模型的局部语义表示。我们得出结论,顶层可能过于关注局部信息,导致编码全局信息的能力下降。

CLOSE

上一篇 没有了