语义相关度
语义相关度的相关文献在2001年到2022年内共计120篇,主要集中在自动化技术、计算机技术、科学、科学研究、无线电电子学、电信技术
等领域,其中期刊论文95篇、会议论文5篇、专利文献253268篇;相关期刊49种,包括情报学报、情报杂志、现代图书情报技术等;
相关会议5种,包括第十一届全国计算语言学学术会议、第三届全国信息检索与内容安全学术会议、第八届全国人机语音通讯学术会议(NCMMSC8)等;语义相关度的相关文献由290位作者贡献,包括张全、刘运通、方俊等。
语义相关度—发文量
专利文献>
论文:253268篇
占比:99.96%
总计:253368篇
语义相关度
-研究学者
- 张全
- 刘运通
- 方俊
- 郭雷
- 吴晨
- 张运良
- 杨进才
- 诸云强
- 陈忠忠
- 何婷婷
- 刘晓亮
- 刘萍
- 吴守华
- 吴文箴
- 周川祥
- 周琨峰
- 唐旭清
- 孙叔琦
- 孙小飞
- 孙栩
- 宋佳
- 岳媛
- 张仰森
- 张兰芳
- 张睿
- 张磊
- 张红春
- 朱新华
- 李佳媛
- 李小涛
- 杨沐昀
- 梁燕军
- 段永璇
- 涂新辉
- 游树娟
- 牛亚文
- 王志愿
- 王晓东
- 王红玲
- 范军
- 许晶晶
- 赵从志
- 赵悟
- 郑海涛
- 郭青松
- 钱揖丽
- 陈倩
- 陈宏朝
- 陈洪生
- 陈烨
-
-
杨凯婷;
张素兰;
张继福;
胡立华;
杨海峰
-
-
摘要:
大多数图像标签完备方法仅依据待完备图像的视觉特征搜索近邻图像,获取候选标签实现完备,往往忽略候选标签与初始标签隐含的语义和视觉关系.为有效完备图像标签,本文依据信息的相互学习机制提出一种基于视觉和语义互学习的标签完备标注方法.首先,依据待完备图像的视觉特征和初始标签语义,搜索其近邻图像集并获取候选标签;其次,根据候选标签与初始标签的视觉内容相似性和语义相关性度量候选标签与待完备图像的关联度;最后,结合候选标签频率,选取关联程度高的候选标签实现标签补全.在基准数据集Corel5K以及真实数据集Flickr30Concepts上进行实验验证,结果表明该方法在图像标签完备的平均准确率、平均召回率以及覆盖率上均表现出更优的性能.
-
-
谭剪梅;
高山;
刘猛猛;
李维炼
-
-
摘要:
针对自然灾害发生后,不同类型的人群在应急响应过程中对灾害现场场景可视化有着不同需求以及灾害场景模型针对性较低的问题,本文提出了一种基于本体的语义相关度计算方法.利用本体方法确定灾害场景模型与多类型用户需求在概念语义上的逻辑关系,按照多用户可视化需求语义相关度划分灾害场景模型要素,在此基础上采取用户需求规则约束的推理技术计算语义相关度,从而量化灾害场景可视化数据权重.实验案例表明该方法具有可行性,能有效提升灾害场景按需推送和按需构建的效率.
-
-
刘高军;
方晓;
段建勇
-
-
摘要:
随着互联网时代的到来,搜索引擎开始被普遍使用.在针对冷门数据时,由于用户的搜索词范围过小,搜索引擎无法检索出需要的数据,此时查询扩展系统可以有效辅助搜索引擎来提供可靠服务.基于全局文档分析的查询扩展方法,提出结合神经网络模型与包含语义信息的语料的语义相关模型,来更深层地提取词语间的语义信息.这些深层语义信息可以为查询扩展系统提供更加全面有效的特征支持,从而分析词语间的可扩展关系.在近义词林、语言知识库"HowNet"义原标注信息等语义数据中抽取局部可扩展词分布,利用神经网络模型的深度挖掘能力将语料空间中每一个词语的局部可扩展词分布拟合成全局可扩展词分布.在与分别基于语言模型和近义词林的查询扩展方法对比实验中,使用基于语义相关模型的查询扩展方法拥有较高的查询扩展效率;尤其针对冷门搜索数据时,语义相关模型的查全率比对比方法分别提高了11.1个百分点与5.29个百分点.
-
-
-
穆亚昆;
冯圣威;
张静
-
-
摘要:
为了更加有效地检索到符合用户复杂语义需求的图像,提出一种基于文本描述与语义相关性分析的图像检索算法.该方法将图像检索分为两步:基于文本语义相关性分析的图像检索和基于SIFT特征的相似图像扩展检索.根据自然语言处理技术分析得到用户文本需求中的关键词及其语义关联,在选定图像库中通过语义相关性分析得到"种子"图像;接下来在图像扩展检索中,采用基于SIFT特征的相似图像检索,利用之前得到的"种子"图像作为查询条件,在网络图像库中进行扩展检索,并在结果集上根据两次检索的图像相似度进行排序输出,最终得到更加丰富有效的图像检索结果.为了证明算法的有效性,在标准数据集Corel5K和网络数据集Deriantart8K上完成了多组实验,实验结果证明该方法能够得到较为精确地符合用户语义要求的图像检索结果,并且通过扩展算法可以得到更加丰富的检索结果.
-
-
孟涛;
王诚
-
-
摘要:
由于短文本的文档长度较短,短文本中词语的共现信息非常匮乏,造成短文本信息稀疏性问题.信息稀疏性也成为了传统主题模型在短文本上难以取得突破性进展的瓶颈之一.针对短文本分类,充分利用短文本中的每一个词语并解决其稀疏性成为关键.为了解决这一问题,基于Word2vec模型对短文本进行词嵌入扩展以解决其稀疏性,并将词向量转换成概率语义分布来测量语义关联性;针对短文本扩展后的特征向量,利用改进后的特征权重算法并引入语义相关度去处理扩展后的词特征向量.该方法可以区分出扩展后的短文本中词的重要程度,以便获得更准确的语义相关性.短文本分类研究采用KNN算法分类,实验结果表明,通过在外部语料集上学习得到的语义相关性扩展来处理短文本特征,可以有效提高短文本的分类效果.
-
-
刘申凯;
周霁婷;
朱永华;
高洪皓
-
-
摘要:
随着互联网的高速发展,微博、微信等文本形式的使用量逐渐增多,对于这类文本的分析理解在自然语言处理领域形成了新的挑战,尤其是文本中的网络新词识别与语义理解方面.为了克服传统方法无法识别网络新词及其语义的缺点,提出了一种融合知识图谱和显性语义分析(explicit semantic analysis,ESA)方法的网络新词识别方法.该方法以短语的粗粒度对原文进行切分来保留词语间的逻辑关系,利用百度知识图谱Schema匹配短语的语义表达后,再逐步以ESA方法分解剩余文本并将短语的百科信息提炼出核心语义词汇来补充Schema无法识别的部分.实验结果表明,与已有新词识别算法相比,该算法仅需要少量的语料库作为底层知识支撑,大幅降低了人工规则制订的成本,并提高了网络新词识别正确率与词语理解准确率.%With the rapid development of the Internet, the use of Weibo, WeChat and other text forms is gradually increasing. The analysis and understanding of such texts has posed new challenges in the field of natural language processing, especially in the field of network neologism recognition and semantic understanding. In order to overcome the shortcomings of traditional methods that cannot identify network neologism and their semantics, we propose a new method of network neologism recognition by combining knowledge map and explicit semantic analysis methods, which segments the original text with the coarse-grained phrase to preserve the logical relationship between the words. After using the semantic expression phrase of the Baidu knowledge map Schema, the ESA method is used to gradually decompose the remaining texts and extract the phrase encyclopedia information into the core semantic vocabulary, supplementing the unrecognized part of the Schema. Experiment shows that compared with the existing neologism recognition algorithms, the proposed algorithm requires only a small amount of corpus, which reduces the cost of manual rules formulation and improves the recognition of network neologism and the accuracy of word comprehension.
-
-
荆琪;
段利国;
李爱萍;
赵谦
-
-
摘要:
为提高短文本语义相关度的计算准确率,将维基百科作为外部语义知识库,利用维基百科的结构特征,如维基百科的分类体系结构、摘要中的链接结构、正文中的链接结构以及重定向消歧页等,提出类别相关度与链接相关度相结合的词语相关度计算方法.在此基础上,提出基于词形结构、词序结构以及主题词权重的句子相关度计算方法.实验结果表明,在词语相关度计算方面,该方法的Spearman参数比文本相关度计算方法提高2.8%,句子相关度准确率达到73.3%.
-
-
张仰森;
郑佳;
李佳媛
-
-
摘要:
词语的语义计算是自然语言处理领域的重要问题之一,目前的研究主要集中在词语语义的相似度计算方面,对词语语义的相关度计算方法研究不够.为此,本文提出了一种基于语义词典和语料库相结合的词语语义相关度计算模型.首先,以HowNet 和大规模语料库为基础,制定了相关的语义关系提取规则,抽取了大量的语义依存关系;然后,以语义关系三元组为存储形式,构建了语义关系图;最后,采用图论的相关理论,对语义关系图中的语义关系进行处理,设计了一个基于语义关系图的词语语义相关度计算模型.实验结果表明,本文提出的模型在词语语义相关度计算方面具有较好的效果,在WordSimilarity-353数据集上的斯皮尔曼等级相关系数达到了0.5358,显著地提升了中文词语语义相关度的计算效果.%Word semantic computation is one of the important issues in nature language processing. Current studies usually focus on semantic similarity computation of words, not paying enough attention to the semantic relatedness computation. For this reason, we present a word semantic relatedness calculation model based on semantic dictionary and corpus. First of all, the semantic extraction rules are formulated with"HowNet"and corpus, and a large number of semantic dependency relations are extracted based on these rules. Then, a semantic relationship graph is constructed by storing the semantic relationship triplet tuple. At last, graph theory is used to process the semantic relation in the semantic relationship graph and a semantic relatedness calculation model is designed by means of the semantic relationship graph. Experimental results show that this method has a better performance in word semantic relatedness computation, the Spearman rank correlation on the WordSimilarity-353 dataset being up to 0.5358,a significant efficiency improvement of semantic relatedness computation of Chinese words.
-
-
潘婷婷;
黄桂敏;
刘剑
-
-
摘要:
针对传统翻译自动评分方法分析不够全面且准确率不高的问题,提出一种基于混合语义空间的汉译英自动评分模型.该模型通过规则与统计相结合的语法检错算法对待测译文进行语法分析,并基于混合语义空间的语义相关度算法对待测译文与标准译文进行分析,然后赋予相应的权重,从而对待测译文进行自动评分.实验结果表明,该方法与人工评分的平均误差仅为1.13,皮尔逊相关系数为0.87,具有较高的准确率.%Aiming at the case that traditional automatic correction method for English translation is not overall and in low accuracy, an automatic correction model of Chinese-English translation which is based on hybrid semantic space is studied and designed.The model can analyze the grammar errors of the Chinese-English essay by a syntactic error detection algorithm which combines rules and statistics, it also can compare the translation essay with the standard by a semantic relevancy algorithm which is based on hybrid semantic space.Meanwhile, the corresponding weights will be calculated.Then the efficient automatic scoring of the translation essay can get.Via experimenting with real data sets, the results show that the the average error between the proposed method and manual scoring is only 1.13, the pearson correlation coefficient of the method is 0.87 and the method has high accuracy and good practicability in automatic translation scoring field.
-
-
-
-
-
-
张运良;
中国科学院研究生院;
张全
- 《第八届全国人机语音通讯学术会议(NCMMSC8)》
| 2005年
-
摘要:
概念优先组合判断的研究有助于语义块结构和功能的确定,也有助于句类分析系统性能的提高.本文利用HNC概念符号知识深入到词语的语义层面,从概念类别的内涵出发,结合概念间语义相关度计算方法以及句类知识对概念优先组合的各种情况进行了初步分析.文章采取演绎和归纳的方法,得到了关于概念优先组合的并联结构、串联结构和混联结构的发现、内部结构分析及边界确定的相关规则,并实际验证了这些规则的有效性.
-
-
-
-
-
-
- 广西师范大学
- 公开公告日期:2021.06.15
-
摘要:
本发明公开了一种基于维基百科双向链接的词语语义相关度判断方法,对于任意两个词语有:S1.在维基百科数据资源库中分别获取两个词语的定位页面;S2.若定位页面为内容页面,即是义项页面,转S3;若定位页面为消歧页面,进行消岐处理,转S3;S3.计算出两个词语每一个义项页面的概念语义解释,概念语义解释为一个双向链接向量;S4.计算两个词语义项页面间的双向链接向量的余弦,获得每一对义项概念间的语义相关度,将最大值作为两个词语的语义相关度。本发明把维基百科中页面的入链接和出链接作为页面特征,构建描述概念语义的特征向量模型,并结合一种基于社会认知度的消岐策略,提高了基于维基百科链接的词语语义相关度计算的准确度。
-
-
-
-
-
-
- 广西师范大学
- 公开公告日期:2019-02-12
-
摘要:
本发明公开了一种基于维基百科双向链接的词语语义相关度判断方法,对于任意两个词语有:S1.在维基百科数据资源库中分别获取两个词语的定位页面;S2.若定位页面为内容页面,即是义项页面,转S3;若定位页面为消歧页面,进行消岐处理,转S3;S3.计算出两个词语每一个义项页面的概念语义解释,概念语义解释为一个双向链接向量;S4.计算两个词语义项页面间的双向链接向量的余弦,获得每一对义项概念间的语义相关度,将最大值作为两个词语的语义相关度。本发明把维基百科中页面的入链接和出链接作为页面特征,构建描述概念语义的特征向量模型,并结合一种基于社会认知度的消岐策略,提高了基于维基百科链接的词语语义相关度计算的准确度。