古籍命名实体识别评测 GuNER 2023 获奖公布!

本次古籍命名实体识别评测,基于“二十四史”,设计了涵盖人名、书名、官职名的实体知识体系,建构了覆盖多个朝代的历时、跨领域的数据资源,助力古籍资源的智能开发与利用。本次评测共吸引了 127 支队伍报名,涉及国内外多所院校、研究所、企业,也包括来自图书馆的参赛队伍。各队伍同场竞技,在天池平台提交评测结果,取得了优异成绩,推动了技术的突破和发展。目前两个赛道的排行榜单见以下链接:

根据榜单排名以及组织方的复现审核结果,封闭赛道的获奖信息如下表:

排名队伍单位榜单排名榜单成绩复现成绩
一等奖1KDSec_IIE中国科学院信息工程研究所196.1596.15
二等奖2翼智团
(榜单队伍123)
中国电信股份有限公司数字智能科技分公司295.8795.82
3北京信息科技大学智能信息处理研究所北京信息科技大学495.3495.34
三等奖4小新成都信息工程大学595.0895.08
5wzjj98个人395.6894.34

开放赛道无参赛队伍参与评奖,故奖项空置。

感谢各参赛队伍的积极参与和付出,祝贺获奖队伍取得优异成绩!

评测技术报告

为了更好地促进国内外同行交流、提升评测影响力,经 CCL2023 的评测委员会提议,大会组委会、出版委员会与 ACL 协商,确定本届评测将在 ACL Anthology 的 CCL2023 会议下开设专门的 Proceedings。评测任务的总结报告论文和各参赛队的参赛报告论文均有机会被收录。评测委员会将组织专家进行双盲审稿,评测中内容和写作质量均佳的评测报告(中英文)将被 CCL Anthology 和 ACL Anthology 收录。

因此我们鼓励所有参赛队伍提交技术报告,展示技术手段和创新思考。参赛队伍所提交的技术报告将经历两轮评审:首先评测组织方进行初评和反馈,并推荐出优秀报告;再经大会组织评审专家进行双盲评审,最后公布技术报告的录用结果。

技术报告无论使用中文还是英文,都需统一使用 CCL 2023 大会的官方 LaTeX 模板。提交的论文最多包含 10 页正文,参考文献页数不限。由于本次会议采用双盲审稿,作者姓名和单位不能出现在投稿的论文中。因此,作者的自引不可采用我们提出…的方式,而是用[作者名字]提出…。不符合这些要求的论文将不经过完整的审稿流程而直接被拒稿。

论文模板下载链接:http://cips-cl.org/static/CCL2023/downloads/ccl2023_template.zipopen in new window

中文技术报告内容可参考往届 CCL 会议和评测论文,英文技术报告内容可参考 CONLL 2020 评测论文:https://aclanthology.org/events/conll-2020/open in new window

时间安排

提交中文或英文技术报告:2023 年 6 月 25 日

提交邮箱:dh.pku@outlook.com供任务组织者了解参赛队伍的方法;所有参赛队伍均可提交;不提交合格的技术报告,不能获奖,奖项顺延。

中文或英文技术报告反馈:2023 年 6 月 28 日

任务组织者初评技术报告,并给出反馈

正式提交中英文评测论文:2023 年 7 月 3 日

包括任务组织者撰写的 Overview 论文、任务组织者推荐的优秀中英文技术报告(提交前请根据任务组织者的建议完善);进入双盲评审

评测论文录用通知:2023 年 7 月 10 日