《中文信息学报》新刊概览∣ 2023年第11期(37卷第11期)

文摘   科技   2024-01-30 16:01   北京  

 


 ↑点开查看清晰大图  






综述





✦ 非自回归神经机器翻译综述


作  者:曹 航,胡 驰,肖 桐,王成龙,朱靖波

摘  要:当前的神经机器翻译系统大多采用自回归的方式进行解码,这种串行解码的方式导致解码效率低下。与之相比,非自回归的方式通过并行解码显著提高了推断速度,受到研究人员的广泛关注。然而,由于缺乏目标序列内词语间的依赖关系,非自回归方法在性能上还存在较大差异。近些年,有很多工作研究如何缩小非自回归机器翻译(NART)和自回归机器翻译(ART)之间的翻译质量差距,但是目前缺少对现有方法和研究趋势的梳理。该文不仅从捕获依赖关系的角度对NART方法进行了详细分类和总结,而且对NART研究面临的挑战进行了展望与分析,并归纳整理了相关的论文,还进一步根据方法、发表会议和任务等进行了分类。

关键词:自然语言处理;非自回归;机器翻译

引用格式:曹航,胡驰,肖桐,王成龙,朱靖波. 非自回归神经机器翻译综述 [J]. 中文信息学报.2023, 37(11): 1-14

CAO Hang, HU Chi, XIAO Tong, WANG Chenglong, ZHU Jingbo. A Survey of Non-Autoregressive Neural Machine Translation[J]. Journal of Chinese Information Processing. 2023, 37(11): 1-14
全文链接:点击下载







民族、跨境及周边语言信息处理 




✦  藏文文本校对评测集构建


作  者:才智杰,三毛措,才让卓玛

  要:文本校对评测集是拼写检查研究的基础,包括传统文本校对评测集和标准文本校对评测集。传统文本校对评测集是对正确的数据集通过主观经验人工伪造而得到的评测集,标准文本校对评测集是通过选择研究对象获取可信度强的真实数据集而得到的评测集。该文在分析英、汉文文本校对评测集构建方法的基础上,结合藏文的特点研究了藏文文本校对评测集的构建方法,构建了用于评价藏文文本校对性能的标准文本校对评测集,并统计分析了评测集中的错误类型及分布,验证了构建的标准文本校对评测集的有效性和可用性。

关键词:自然语言处理;藏文;文本校对;评测集

引用格式:才智杰,三毛措,才让卓玛. 藏文文本校对评测集构建[J]. 中文信息学报.2023, 37(11): 15-22

CAI Zhijie, SAN Maocuo, CAIRANG Zhuoma. Construction of Testset for Tibetan Text Proofreading[J]. Journal of Chinese Information Processing. 2023, 37(11): 15-22

全文链接:点击下载 



✦  结合级联技术的藏文预训练命名实体识别模型

作  者徐泽辉,珠 杰,许泽洲,汪 超,严松思,刘亚姗
摘  要命名实体识别是藏文自然语言处理中的一项关键任务,该文提出了结合三种藏文预训练模型(Word2Vec、ELMo、ALBERT)的Casade-BiLSTM-CRF结构。级联技术(Cascade)将藏文命名实体识别划分为两个子任务(实体边界划分,实体类别判断)分阶段进行,简化了模型结构;使用藏文预训练模型,能更好地学习藏文先验知识。实验表明,Cascade-BiLSTM-CRF模型相比于BiLSTM-CRF模型训练一轮时间缩短了28.30%;而将级联技术与预训练技术相结合,在取得更好识别效果的同时还缩短了模型训练时间。
关键词藏文命名实体识别;级联;预训练
引用格式徐泽辉,珠杰,许泽洲,汪超,严松思,刘亚姗. 结合级联技术的藏文预训练命名实体识别模型[J]. 中文信息学报.2023, 37(11): 23-28
XU Zehui, ZHU Jie, XU Zezhou, WANG Chao, YAN Songsi, LIU Yashan. Cascaded Tibetan Named Entity Recognition Model with Pre-trained Language Model[J]. Journal of Chinese Information Processing. 2023, 37(11): 23-28

全文链接点击下载 


✦  基于迁移学习的敦煌藏文古籍整页识别

作  者杨晓龙,高红梅,高定国,达 措
摘  要为了解决复杂背景下,文字风格多样导致整页文本识别模型识别精度低和网络难以收敛的问题,该文对基于迁移学习的整页识别算法(垂直注意力网络)进行改进。首先对《法国国家图书馆藏敦煌藏文文献》第一册的319张数据进行了构建和标注,通过印刷体合成等方式对数据集进行扩充,使实验数据达到2 367张图片;其次,为了增强行特征提取能力和加快网络收敛速度,使用自适应平均值池化对行特征提取模块和使用门循环单元对解码器进行了改进;最后将行训练模型迁移到改进的整页文本识别任务中实现对敦煌藏文文字的识别。实验结果表明,在拥有行级的标注情况下,使用迁移学习相比主流的整页识别模型降低了0.73%的字符错误率,验证了该模型在数据稀缺情况下对整页文本识别的有效性。
关键词文本识别;迁移学习;端到端整页识别
引用格式杨晓龙,高红梅,高定国,达措. 基于迁移学习的敦煌藏文古籍整页识别[J]. 中文信息学报.2023, 37(11): 29-37
YANG Xiaolong, GAO Hongmei, GAO Dingguo, DACUO. Full-Page Text Recognition for Tibetan Dunhuang Documents Based on Transfer Learning[J]. Journal of Chinese Information Processing. 2023, 37(11): 29-37

全文链接点击下载 



✦  融合字符与词性特征的泰语文本语法错误检测

作  者施灿镇,朱俊国,余正涛
摘  要文本语法错误检测与纠正旨在自动识别并纠正文本中的语法错误。与汉语、英语等语言不同,该任务在一些泰语语言的文本上受制于数据规模问题,仍然只能针对简单规则进行识别和校正。该文结合相应的语言学及错误类型特点,基于人工启发式规则,利用单语数据构建了一定规模的泰语文本语法错误检测与纠正语料库。基于该语料库,该文提出一种融合语言学特征的泰语文本语法错误检测方法,在多语言BERT序列标注模型的基础上融合字符、词与词性的深层语义表达。实验结果表明,该文方法的错误检测性能比仅依赖于多语言BERT的基线模型提升了1.37%的F1值,并且模型性能会随着训练数据规模的增大而提高,证明了该文语料库构建方法的有效性。
关键词文本语法错误检测;泰语;语料库;特征融合
引用格式施灿镇,朱俊国,余正涛. 融合字符与词性特征的泰语文本语法错误检测[J]. 中文信息学报.2023, 37(11): 38-48
SHI Canzhen, ZHU Junguo, YU Zhengtao. Combining Character and Part-of-Speech Features for Thai Text Grammar Error Detection[J]. Journal of Chinese Information Processing. 2023, 37(11): 38-48

全文链接点击下载 








信息抽取与文本挖掘




✦ 基于去偏对比学习的多模态命名实体识别


作  者:张 鑫,袁景凌,李 琳,刘 佳

  要:命名实体识别作为信息抽取的关键环节,在自然语言处理领域有着广泛应用。随着互联网上多模态信息的不断涌现,研究发现视觉信息有助于文本实现更加准确的命名实体识别。现有工作通常将图像视为视觉对象的集合,试图将图像中的视觉对象与文本中的实体显式对齐。然而,当二者在数量或语义上不一致时,这些方法往往不能很好地应对模态偏差,从而难以实现图像和文本之间的准确语义对齐。针对此问题,该文提出了一种基于去偏对比学习的多模态命名实体识别方法(DebiasCL),利用视觉对象密度指导视觉语境丰富的图文作为扩充样本,通过去偏对比学习优化图文共享的潜在语义空间学习,实现图像与文本间的隐式对齐。在Twitter-2015和Twitter-2017上进行实验,DebiasCL的F1值分别达到75.04%和86.51%,在“PER.”和“MISC.”类别数据中F1分别提升了5.23%和5.2%。实验结果表明,该方法可以有效缓解模态偏差,从而提升多模态命名实体识别系统性能。

关键词多模态命名实体识别;对比学习;模态对齐

引用格式:张鑫,袁景凌,李琳,刘佳. 基于去偏对比学习的多模态命名实体识别[J]. 中文信息学报.2023, 37(11): 49-59

ZHANG Xin, YUAN Jingling, LI Lin, LIU Jia. Debiased Contrastive Learning for Multimodal Named Entity Recognition[J]. Journal of Chinese Information Processing. 2023, 37(11): 49-59

全文链接:点击下载





✦ 基于监督对比重放的持续关系抽取


作  者:赵基藤,李国正,汪 鹏,柳沿河

  要:持续关系抽取被用来解决在新关系上重新训练模型而导致灾难性遗忘的问题。该文针对现有持续关系抽取模型存在的最近任务偏倚等问题,提出了一种基于监督对比重放的持续关系抽取方法。具体而言,对每个新任务,首先利用编码器学习新的样本嵌入,接着通过将相同和不同关系类别的样本作为正负样本对,在每次重放的过程中利用监督对比损失,不断学习一个区分能力强的编码器;同时,在监督对比学习过程中利用关系原型进行辅助增强,防止模型过拟合;最后在测试阶段通过最近类均值分类器进行分类。实验结果表明,该文提出的方法可以有效缓解持续关系抽取中的灾难性遗忘问题,在FewRel和TACRED两个数据集上都达到了最先进的持续关系抽取性能。同时,随着任务数量的增加,在训练至5个任务以后,该文模型性能领先最先进的模型性能约1%。

关键词持续关系抽取;监督对比学习;重放

引用格式:赵基藤,李国正,汪鹏,柳沿河. 基于监督对比重放的持续关系抽取[J]. 中文信息学报.2023, 37(11): 60-67,80

ZHAO Jiteng, LI Guozheng, WANG Peng, LIU Yanhe. Continual Relation Extraction via Supervised Contrastive Replay[J]. Journal of Chinese Information Processing. 2023, 37(11): 60-67,80

全文链接:点击下载





✦ 基于可控解码策略的生成式生物医学事件抽取


作  者:苏方方,李 霏,姬东鸿

  要:该文在预训练语言模型T5的框架基础上构建了一个生成式生物医学事件抽取模型,该方法可以自由定义输出序列,由此可以联合建模触发词识别、关系抽取和论元组合三个子任务。模型采用了生成序列字典树和事件类型-论元角色字典树,用于规范序列生成和减少论元角色的搜索空间。另外还采用可控解码策略便于限制每一步生成时所使用的候选词汇集,最后在训练时使用了课程学习,便于T5模型熟悉生物医学语料和有层次结构的完整事件的学习。该文模型在Genia 2011年和Genia 2013年的语料上分别获得了62.40% 和 54.85%的F1值,说明了使用生成式的方式进行生物医学事件抽取是可行的。

关键词生物医学事件抽取;生成式模型;可控解码策略

引用格式:苏方方,李霏,姬东鸿. 基于可控解码策略的生成式生物医学事件抽取[J]. 中文信息学报.2023, 37(11): 68-80

SU Fangfang, LI Fei, JI Donghong. Generative Biomedical Event Extraction Based on Controllable Decoding[J]. Journal of Chinese Information Processing. 2023, 37(11): 68-80

全文链接:点击下载



✦ 融合多种语义特征的代码摘要生成方法


作  者:屈 薇,周 栋,赵文玉,曹步清

  要:代码摘要生成任务旨在实现全自动化地产生自然语言描述源代码的功能,使其便于软件维护和程序理解。目前,主流的基于Transformer的方法只考虑源代码的文本和结构化语义特征,忽略了与源代码密切相关的API文档等外部语义特征;其次,在使用大规模数据的情况下,由于Transformer结构的自注意力模块需要计算所有相似度分数,因此存在计算成本高和内存占用量大的问题。为解决以上问题,该文提出了一种基于改进Transformer结构的融合多种语义特征的代码摘要生成方法。该方法采用三个独立编码器充分学习源代码的多种语义特征(文本、结构和外部API文档),并使用非参数化傅里叶变换替代编码器中的自注意力层,通过线性变换降低使用Transformer结构的计算时间和内存占用量,在公开数据集上的实验结果证明了该方法的有效性。

关键词代码摘要;Transformer;API文档;傅里叶变换

引用格式:屈薇,周栋,赵文玉,曹步清. 融合多种语义特征的代码摘要生成方法[J]. 中文信息学报.2023, 37(11): 81-90

QU Wei, ZHOU Dong, ZHAO Wenyu, CAO Buqing. Combining Multiple Semantic Features for Code Summarization Generation[J]. Journal of Chinese Information Processing. 2023, 37(11): 81-90

全文链接:点击下载



✦融合胶囊网络的双通道神经网络文本分类模型


作  者:贾翔顺,陈 玮,尹 钟

  要:大多数文本分析方法未能提取足够的上下文文本信息与关键特征信息,该文提出BC-CapsNet模型来提取更多特征以进一步提高文本分类准确度。首先使用BERT预训练模型对文本进行词嵌入,然后使用双通道模型与胶囊网络(Capsule Network)进行特征提取,一个通道使用双向门限循环单元(BiGRU)提取上下文文本信息,另一个通道使用卷积神经网络(CNN)捕捉文本的关键特征;最后将两通道提取的特征进行融合并送入到胶囊网络中,胶囊网络使用矢量信息进行特征表示,其与传统网络的标量特征信息相比更具表现力。同时在胶囊网络中,动态路由算法可以提取更多隐藏的特征信息,从而提高文本分类效果。在THUCNews与Ag_News文本数据集上进行的大量实验表明,该模型能够有效地提高文本分类的准确率。

关键词文本分类;胶囊网络;神经网络

引用格式:贾翔顺,陈玮,尹钟. 融合胶囊网络的双通道神经网络文本分类模型[J]. 中文信息学报.2023, 37(11): 91-99

JIA Xiangshun, CHEN Wei, YIN Zhong. Two-channel Neural Network Text Classification Model Fused with Capsule Network[J]. Journal of Chinese Information Processing. 2023, 37(11): 91-99

全文链接:点击下载




✦ 融入篇章信息的文学作品命名实体识别


作  者:贾玉祥,晁 睿,昝红英,窦华溢,曹 帅,徐 硕

  要:命名实体识别是文学作品智能分析的基础性工作,当前文学领域命名实体识别的研究还较薄弱,一个主要原因是缺乏标注语料。该文从金庸小说入手,对两部小说180余万字进行了命名实体的标注,共标注4类实体,共计5万多个。针对小说文本的特点,该文提出融入篇章信息的命名实体识别模型,引入篇章字典保存汉字的历史状态,利用可信度计算融合BiGRU-CRF与Transformer模型。实验结果表明,利用篇章信息有效提升了命名实体识别的效果。最后,该文还探讨了命名实体识别在小说社会网络构建中的应用。

关键词文学作品;命名实体识别;篇章信息

引用格式:贾玉祥,晁睿,昝红英,窦华溢,曹帅,徐硕. 融入篇章信息的文学作品命名实体识别 [J]. 中文信息学报.2023, 37(11): 100-109

JIA Yuxiang, CHAO Rui, ZAN Hongying, DOU Huayi, CAO Shuai, XU Shuo. Document-level Named Entity Recognition for Literary Texts[J]. Journal of Chinese Information Processing. 2023, 37(11): 100-109

全文链接:点击下载







问答与对话





✦ DST-SC: 融合槽位关联和语义关联的任务型对话系统状态跟踪模型


作  者:倪钰婷,张德平 

摘  要:任务型对话系统是当前自然语言处理领域的研究热点,对话状态跟踪作为任务型对话系统的核心模块,其主要任务是维护对话的上下文信息并以特定的状态形式展现。目前基于多领域的任务型对话系统由于对话场景复杂,导致对话状态难以跟踪,预测精度不高。该文提出一种融合槽位关联和语义关联的状态跟踪模型DST-S2C(Dialogue State Tracking with Slot Connection and Semantic Connection)。该模型将槽位构建成多关系图,并利用层级图注意力网络对槽位关系进行建模,提取融合多种槽位关联信息的槽位向量。同时,在槽门机制中加入词级语义相似度向量作为增强特征,获得对话上下文与槽位的局部语义信息,提高槽门机制的预测精度。实验表明,相较于基线模型,DST-S2C在MultiWOZ 2.1数据集上,联合准确率和槽位准确率分别提升了1.12%和0.39%。

关键词:任务型对话系统;对话状态跟踪;多领域

引用格式:倪钰婷,张德平. DST-S2C:融合槽位关联和语义关联的任务型对话系统状态跟踪模型[J]. 中文信息学报.2023, 37(11): 110-119

NI Yuting, ZHANG Deping. DST-S2C: Dialogue State Tracking with Slot Connection and Semantic Connection Modeling[J]. Journal of Chinese Information Processing. 2023, 37(11): 110-119

全文链接:点击下载




✦ 基于BERT模型的多层语义粒度视觉对话算法


作  者:崔朝阳,江爱文,陈思航,刘长红,王明文

摘  要:视觉对话是近年来热门且具挑战性的跨模态视觉语言任务。它需要机器人能够充分理解被问问题,并从历史对话和视觉内容所提供的上下文信息中适当推理,以自然语言形式就所看到的视觉内容进行有意义的多轮连续回答。目前主流模型有基于注意力机制的信息交互模型、基于图神经网络的图结构模型及基于大规模预训练的语言模型三大类,但都存在一定的局限性。该文针对语义信息融合粒度、算法学习灵活性等方面,提出了基于BERT模型的多层语义粒度视觉对话算法。算法以轻量级模型LTMI为基础,引入BERT预训练模型,实现了“词-句”多层次语义粒度的信息融合。同时,模型借鉴BERT的多任务训练过程,以自监督方式组织模型训练的文本序列微调数据集,实现跨模态特征学习。模型的跨模态嵌入过程可以随模型训练动态变化,从而提升了模型学习的灵活性。该文模型在视觉对话公开数据集VisDial v0.9和VisDial v1.0上分别与主流先进算法进行了比较。实验结果表明,该模型在保证对话回复预测精准性的基础上,进一步提升了算法的泛化能力,取得了较为优越的性能

关键词:视觉对话;跨模态融合;多头注意力;预训练模型;BERT

引用格式:崔朝阳,江爱文,陈思航,刘长红,王明文. 基于BERT模型的多层语义粒度视觉对话算法[J]. 中文信息学报.2023, 37(11): 120-130

CUI Zhaoyang, JIANG Aiwen, CHEN Sihang, LIU Changhong, WANG Mingwen. Bert Based Visual Dialogue Algorithm with Multi-level Semantic Context[J]. Journal of Chinese Information Processing. 2023, 37(11): 120-130

全文链接:点击下载







信息检索




 基于解耦图卷积网络的协同过滤推荐模型


作  者:李 驰,游小钰,张 谧

摘  要:图卷积网络(GCN)可以缓解传统推荐算法数据稀疏的问题,有效提高推荐准确度,被广泛应用于各种推荐任务中。但是现有基于GCN的推荐模型还存在计算开销大的问题。因此,该文提出了一种基于解耦图卷积网络的协同过滤推荐模型(DeGCF)。首先,在模型参数初始化阶段,DeGCF利用负采样增强的图卷积操作,显式地为用户和物品的初始嵌入向量注入局部和全局图结构特征;其次,在模型训练阶段DeGCF仅使用用户和物品的嵌入向量的内积作为模型的输出,实现图卷积操作与模型训练过程的解耦;最后,DeGCF使用逆倾向分数加权的损失函数训练模型参数。在三个基准数据集上的实验结果显示,该方法性能显著超过现有方法,在Amazon-book数据集上相较于LightGCN模型Recall指标提高了31%,训练效率提升了13倍,避免了五百余万次的全图矩阵计算。

关键词:解耦图卷积网络;协同过滤;推荐系统

引用格式:李驰,游小钰,张谧. 基于解耦图卷积网络的协同过滤推荐模型[J]. 中文信息学报.2023, 37(11): 131-141

LI Chi, YOU Xiaoyu, ZHANG Mi. Decoupled Graph Convolution Network for Collaborative Filtering[J]. Journal of Chinese Information Processing. 2023, 37(11): 131-141

全文链接:点击下载







情感分析与社会计算





✦ 结合标签转移关系的多任务笑点识别方法


作  者:张童越,张绍武,林鸿飞,徐 博,杨 亮

摘  要:幽默在人类交流中扮演着重要角色,并大量存在于情景喜剧中。笑点(punchline)是情景喜剧实现幽默效果的形式之一,在情景喜剧笑点识别任务中,每条句子的标签代表该句是否为笑点,但是以往的笑点识别工作通常只通过建模上下文语义关系识别笑点,对标签的利用并不充分。为了充分利用标签序列中的信息,该文提出了一种结合条件随机场的单词级-句子级多任务学习方法,该方法在两方面进行了改进,首先将标签序列中相邻两个标签之间的转移关系看作幽默理论中不一致性的一种体现,并使用条件随机场学习这种转移关系。其次,由于通过相邻标签之间的转移关系以及上下文语义关系均能够学习到铺垫和笑点之间的不一致性,我们引入了多任务学习方法,让模型同时学习每条句子的句义、 组成每条句子的所有字符的词义、 单词级别的标签转移关系, 以及句子级别的标签转移关系,使模型能够结合两种关系信息提高笑点识别的性能。该文在CCL2020“小牛杯”幽默计算——情景喜剧笑点识别评测任务的英文数据集上进行实验,结果表明,该文提出的方法比同期最好的方法F1值上提高了3.2%,在情景喜剧幽默笑点识别任务上取得了最好的效果,并通过消融实验证明了上述两方面改进的有效性。

关键词:情感分析;幽默计算;多任务学习;条件随机场

引用格式:张童越,张绍武,林鸿飞,徐博,杨亮. 结合标签转移关系的多任务笑点识别方法 [J]. 中文信息学报.2023, 37(11): 142-150

ZHANG Tongyue, ZHANG Shaowu, LIN Hongfei, XU Bo, YANG Liang. Label Transfer Relationship Focused Multi-task Approach to Punchlines Recognition[J]. Journal of Chinese Information Processing. 2023, 37(11): 142-150

全文链接:点击下载




✦ 基于UIE的情感可解释分析


作  者:朱 杰,刘苏文,李军辉,郭立帆,曾海峰,陈 风

摘  要:情感可解释分析是情感分析领域中一个新颖的任务,旨在判断文本极性,同时还需模型给出判断所依据的证据。现有的情感分析方法大多是黑盒模型,其内部决策机制对用户是不透明的。近年来,尽管模型可解释性受到越来越多的关注,但由于缺少人工标注的评测数据,可解释评估仍旧是一个亟待解决的问题。该文提出了一个基于 UIE (Universal Information Extraction)的情感可解释分析方法,该方法根据情感可解释任务的特点,使用小样本学习、文本聚类等技术,提高了模型的合理性、忠诚性。实验结果表明,该方法在“2022语言与智能技术竞赛:情感可解释评测”任务上获得了第一名的成绩。

关键词:情感可解释分析;UIE;少样本学习

引用格式:朱杰,刘苏文,李军辉,郭立帆,曾海峰,陈风. 基于UIE的情感可解释分析[J]. 中文信息学报.2023, 37(11): 151-157

ZHU Jie, LIU Suwen, LI Junhui, GUO Lifan, ZENG Haifeng, CHEN Feng. Interpretable Sentiment Analysis Based on UIE[J]. Journal of Chinese Information Processing. 2023, 37(11): 151-157

全文链接:点击下载







自然然语言理解与生成





✦ 新的自动概念图生成模型C-IK2


作  者:邬宝娴,谢 燚,郝天永,沈映姗 

摘  要:概念图能够直观地展示概念间的相互关系,为教师提供概念相关性的建议,因而成为教师进行个性化教学的重要工具。然而,如何生成能反映学生学习能力并有效指导教师教学的概念图是目前概念图研究一大难题。该文提出了一种新的自动概念图生成模型C-IK2。C-IK2模型考虑学生的不同学习特点和不同概念理解程度,通过Birch算法对学生概念掌握程度特征进行聚类处理得到学生分簇。同时该模型考虑概念图具有层次结构,针对传统LPG算法在处理层次结构方面的不足进行了改进。通过融合改进的LPG算法,同时改进K2算法的有效输入序列,最终生成具有不同学生学习特征的层次结构概念图。该文使用两个标准数据集进行实验,与现有基于序列的最新改进K2算法进行对比,C-IK2模型在图准确度上提高了7.7%。与现有基于评分的贝叶斯网络结构学习方法相比,C-IK2模型的图结构质量提高了3.1%。结果表明,C-IK2模型能有效区分学生对概念的理解程度,生成反映理解程度的层次结构概念图,从而帮助教师进行针对性地个性化教学。

关键词:LPG算法;K2算法;概念图;C-IK2 模型

引用格式:邬宝娴,谢燚,郝天永,沈映姗. 一种新的自动概念图生成模型C-IK2[J]. 中文信息学报.2023, 37(11): 158-170

WU Baoxian, XIE Yi, HAO Tianyong, SHEN Yingshan. A New Automatic Concept Map Generation Model C-IK2[J]. Journal of Chinese Information Processing. 2023, 37(11): 158-170

全文链接:点击下载







↑点开查看清晰大图  




长按识别下图二维码

关注我们

获取中文信息处理领域

专业干货


点击|阅读原文|获取当期全文

中文信息学报
于1986年创刊,是由中国科学技术协会主管,中国中文信息学会和中国科学院软件研究所合办的高水平学术期刊。被中国科技核心期刊、中国核心期刊、全国中文核心期刊等数据库收录,它及时反映我国中文信息处理的学术水平,是中文信息处理领域的重要参考资料。