图像自动标注论文-吕凡,胡伏原,张艳宁,夏振平,盛胜利

图像自动标注论文-吕凡,胡伏原,张艳宁,夏振平,盛胜利

导读:本文包含了图像自动标注论文开题报告文献综述及选题提纲参考文献,主要关键词:图像自动语句标注,注意力机制,注意力反馈

图像自动标注论文文献综述

吕凡,胡伏原,张艳宁,夏振平,盛胜利[1](2019)在《面向图像自动语句标注的注意力反馈模型》一文中研究指出图像自动语句标注利用计算机自动生成描述图像内容的语句,在服务机器人等领域有广泛应用.许多学者已经提出了一些基于注意力机制的算法,但是注意力分散问题以及由注意力分散引起的生成语句错乱问题还未得到较好解决.在传统注意力机制的基础上引入注意力反馈机制,利用关注信息的图像特征指导文本生成,同时借助生成文本中的关注信息进一步修正图像中的关注区域,该过程不断强化图像和文本中的关键信息匹配、优化生成的语句.针对常用数据集Flickr8k, Flickr30k和MSCOCO的实验结果表明,该模型在一定程度上解决了注意力分散和语句顺序错乱问题,比其他基于注意力机制方法标注的关注区域更加准确,生成语句更加通顺.(本文来源于《计算机辅助设计与图形学学报》期刊2019年07期)

曹颖[2](2019)在《基于半监督学习的白内障眼底图像自动标注方法研究》一文中研究指出根据数据资料显示,一些常见的眼科疾病都可以利用眼底图像的形式观察检测到,白内障就是其中一种常见性的眼科疾病。本文主要利用机器学习算法中的图像识别技术,对白内障眼底图像进行诊断识别,提出了能充分利用无标签的眼底图像数据进行半监督学习,从而提升模型在测试集上准确率的半监督学习算法。本文提出的基于半监督学习的白内障眼底图像自动分类标注系统对降低医疗成本,缓解短缺的医生资源以及提升白内障疾病的诊疗效率具有很重要的科研价值和临床意义。本文主要完成了如下几个方面的工作:在白内障眼底图像预处理阶段,使用了图像灰度化来将原始的OCT彩色眼底图像转换成灰度图,使用像素值标准化和归一化将图像的像素值划归到同一个灰度范围,使用限制对比度直方图均衡化(CLAHE)的方法来对图像进行初步的增强,使用伽马矫正来去除光照不均对图像造成的影响。在眼底图像特征提取阶段,提取了图像的颜色特征,纹理特征,小波特征,轮辐特征以及眼底血管五类特征,共计128维。在半监督算法实现阶段,本文使用了两种半监督学习算法,一种是基于传统的机器学习算法实现的半监督算法,另一种是基于生成对抗神经网络(GAN)实现的半监督学习算法。本文使用得数据集包括4000张已标注数据以及3851张未标注数据,其中4000张数据集分为4类。在实验过程中,将4000张已经标注的白内障眼图像按照2:1:1的比例划分为训练,验证和测试集。最终,基于半监督学习的分类模型在测试集上最高能达到87.5%的四分类准确率,该结果也充分证明了利用计算机系统辅助诊断对图像进行分类并标注是可实施的。也在一定程度上推进了白内障自动分类系统投入实际医学应用的进程。(本文来源于《中北大学》期刊2019-03-27)

税留成,刘卫忠,冯卓明[3](2019)在《基于生成式对抗网络的图像自动标注》一文中研究指出针对基于深度学习的图像标注模型输出层神经元数目与标注词汇量成正比,导致模型结构因词汇量的变化而改变的问题,提出了结合生成式对抗网络(GAN)和Word2vec的新标注模型。首先,通过Word2vec将标注词汇映射为固定的多维词向量;其次,利用GAN构建神经网络模型——GAN-W模型,使输出层神经元数目与多维词向量维数相等,与词汇量不再相关;最后,通过对模型多次输出结果的排序来确定最终标注。GAN-W模型分别在Corel 5K和IAPRTC-12图像标注数据集上进行实验,在Corel 5K数据集上,GAN-W模型准确率、召回率和F1值比卷积神经网络回归(CNN-R)方法分别提高5、14和9个百分点;在IAPRTC-12数据集上,GAN-W模型准确率、召回率和F1值比两场K最邻近(2PKNN)模型分别提高2、6和3个百分点。实验结果表明,GAN-W模型可以解决输出神经元数目随词汇量改变的问题,同时每幅图像标注的标签数目自适应,使得该模型标注结果更加符合实际标注情形。(本文来源于《计算机应用》期刊2019年07期)

邹北骥,郭云镝,陈再良,何骐,朱承璋[4](2018)在《辅助青光眼研究的具有DDLS自动分类功能的眼底图像标注工具(英文)》一文中研究指出利用新的HTML5标准的特性,设计了一个基于浏览器/服务器架构的青光眼图像数据库建库系统(BGIDB)的在线标注工具,用来标注眼底图的视杯、视盘边缘;使用B样条来拟合标注曲线,并基于视神经损伤度量(DDLS)设计了一个自动划分青光眼疾病等级的算法,其中DDLS是评价青光眼进程的指标。实验结果表明,该工具具有较好的标注表现,对视盘和视杯分别具有4.34%和8.31%的标注重迭误差;相比现有的其他标注工具,本工具在人机交互中的耗时也具有优势。目前,BGIDB已经用于中南大学眼科图像研究中心与湘雅二医院合作中的青光眼数据库建设。(本文来源于《Journal of Central South University》期刊2018年09期)

汪鹏,张奥帆,王利琴,董永峰[5](2018)在《基于迁移学习与多标签平滑策略的图像自动标注》一文中研究指出针对图像标注数据集标签分布不平衡问题,提出了基于标签平滑策略的多标签平滑单元(MLSU)。MLSU在网络模型训练过程中自动平滑数据集中的高频标签,使网络适当提升了低频标签的输出值,从而提升了低频标注词的标注性能。为解决图像标注数据集样本数量不足造成网络过拟合的问题,提出了基于迁移学习的卷积神经网络(CNN)模型。首先利用互联网上的大型公共图像数据集对深度网络进行预训练,然后利用目标数据集对网络参数进行微调,构建了一个多标签平滑卷积神经网络模型(CNN-MLSU)。分别在Corel5K和IAPR TC-12图像标注数据集上进行实验,在Corel5K数据集上,CNN-MLSU较卷积神经网络回归方法(CNN-R)的平均准确率与平均召回率分别提升了5个百分点和8个百分点;在IAPR TC-12数据集上,CNN-MLSU较两场K最邻近模型(2PKNN_ML)的平均召回率提升了6个百分点。实验结果表明,基于迁移学习的CNN-MLSU方法能有效地预防网络过拟合,同时提升了低频词的标注效果。(本文来源于《计算机应用》期刊2018年11期)

吕凡[6](2018)在《基于生成对抗网络的图像自动文本标注方法研究》一文中研究指出图像自动文本标注目标是为图像中存在的目标和场景生成对应的语句标注。传统的图像自动文本标注方法包括语义模板填充法、特征空间匹配法以及CNNRNN叁种方法。利用这些方法生成的自动语句标注存在Exposure Bias问题,距离真实语境仍然有较大差距,相似图像生成的语句过于相似,缺乏独特性。因此,利用传统方法难以对图像进行有效地语句标注。为了克服传统图像自动文本标注问题中的Exposure Bias问题,本文引入了生成对抗网络,借助其独特的对抗机制自动为图像生成语句标注,该机制能够有效地使得生成数据拟合真实地数据分布。为了有效分析图像和生成语句之间的关系,本文同时引入注意力机制,将图像自动文本标注问题看作是一个基于注意力机制的序列生成问题。从多模态角度出发,探寻多模态(图像、文本)的注意力机制在图像自动文本标注任务上的应用。本文的主要研究工作如下:(1)提出了一种基于注意力机制的图像多标签分类方法。图像自动文本标注问题可以简化为图像多标签分类问题。首先将图像的多标签看作是一个序列,采用CNN提取图像特征,采用RNN对多标签进行预测;在每一步预测过程中,结合注意力估计的关注区域,预测该区域可能的标签。实验结果表明本文提出的基于注意力机制的图像多标签分类方法在多个衡量标准上能够比原本基于CNN和CNN-RNN的方法提高2%~3%的效果。(2)提出了一种针对多模态数据的注意力累积机制。本文研究的图像自动文本标注问题是多模态问题。在多模态数据中,每种模态的数据都存在关键信息,但是这种关键信息无法有效协同分析。本文将提出一种注意力累积机制方法并应用在视觉指称任务中,将该任务中各个模态数据的注意力进行有效结合,并互相强化。实验结果表明,所提方法能有效提高指称效果,准确度平均提升3%,可视化实验表明每种模态数据的关注信息都得到了强化。(3)提出了一种能够强化注意力的注意力反馈机制。传统基于注意力机制的运算过程是一个单向传播的操作,这类方法存在注意力分散和生成语句错乱的问题。本文在传统的注意力机制基础上,构建了反馈通道,有效保证了输入和输出注意力描述信息的匹配准确性,使得生成语句更加准确。实验表明,本文提出的注意力反馈机制在BLEU和METEOR两个衡量标准上相比原本基于注意力机制的方法提高了2%。(4)提出了一种基于生成对抗网络图像自动文本标注模型。本文在基于注意力机制的图像自动文本标注基础上,引入生成对抗网络思想,构建基于生成对抗网络的图像自动文本标注模型。模型的生成器采用多模态数据的注意力机制,同时将图像和文本的关注信息输入到判别器中判断真假,最终提升生成效果。本文采用Gumbel-Softmax分布柔化原本生成器中图像自动文本标注的离散输出,解决其直接输入到判别器中导致不可导问题。实验结果表明,本文提出的基于生成对抗网络的图像自动文本标注方法能够生成更加准确的语句标注,在BLEU和METEOR衡量标准上相比基于注意力反馈机制的方法提升了2~3%。(本文来源于《苏州科技大学》期刊2018-06-01)

吕海峰[7](2018)在《自动图像语义标注方法的研究》一文中研究指出随着互联网、云计算,人工智能和大数据等技术的多元化发展,互联网中图像数量急剧增加。由此产生了一个备受用户关注的问题:如何在这些海量的图像中高效地检索到满足需求的图像。而图像检索的效果很大程度上依赖于图像语义标注,但是由于图像底层特征与高层语义之间的“语义鸿沟”的存在,对于图像语义标注工作仍然具有很大的挑战性。针对此问题,本文围绕图像自动标注展开深入的研究,主要做了以下工作:(1)本文基于支持向量机的图像分类模型和融合语义主题的图像标注模型,提出了一种融合图像分类信息的概率语义分析模型的图像标注方法。两者融合后优势互补,首先,基于支持向量机的图像分类弥补了在概率语义分析模型中的图像特征数据在量化过程中仍会丢失重要信息的问题;其次,基于支持向量机的分类模型专一地提取图像的颜色特征,而概率语义分析模型只是笼统的提取图像的底层特征,融合后可以有效地避免因特征提取方式不当对图像标注结果造成不利影响。两者融合后,得到图像的候选标注词概率集,实验表明,其图像标注的性能有了显着的提高。(2)为了进一步优化提高图像标注的质量,本文又提出了融合相似度模型的图像标注方法,该方法的思想是:利用图像相似度算法计算出待标注图像和已标注图像集之间的相似度,统计出相似图像的文本标签及数量,生成一个图像间相似度权重,融入到候选标注词概率集中,对标注结果进行优化,实验表明其标注性能在原有的基础上有了明显的提高。(3)基于本文的提出的标注模型开发了一个图像标注与检索的微型系统,主要包括图像模型训练、图像标注和图像检索叁个模块。首先利用图像数据集的训练集对图像标注模型进行训练,然后对待标注图像进行标注,最后可以通过文本关键字或图像实例对图像进行检索。本文采用Corel5k,Espgame和Iaprtc12图像集进行仿真实验,利用查准率、查全率和综合评价指标对标注结果进行评价。并且与翻译模型TM、跨媒体相关模型-CMRM、连续空间相关模型-CRM、PLSA-WORDS、PLSA-FUSION、RNN、ANNOR-G和FFSS等相关的经典标注模型作了对比。实验表明本文提出的方法获得了较好的效果。(本文来源于《江南大学》期刊2018-06-01)

林兰[8](2018)在《基于半监督学习的图像自动标注方法研究》一文中研究指出随着网络和数码设备的普及,各种媒体图像数据飞速增长,大量的可视化数据,如图像、音频、视频等随处可见,如何合理地组织和管理这些无标注的数据,给用户高效率的浏览和检索成为研究者广泛研究的问题。自上世纪70年代起,图像检索就成为十分活跃的研究领域,但由于人工标注工作量大和“语义鸿沟”的出现,大大的限制了图像检索技术的发展,为改善该技术的困境,图像自动标注技术得到了广泛的应用。图像自动标注描述的是计算机通过算法将一个或多个描述性关键字自动地分配给相关图像的过程。迄今为止,研究者提出了很多图像自动标注技术,本文在前人的基础上进一步探究图像自动标注技术。论文首先分析了图像自动标注的研究背景和国内外研究现状;接着讨论图像自动标注的关键技术;然后重点阐述论文的几个主要工作:第叁章提出基于混合模型的图像自动标注方法;为了有效地利用无标注数据来提升标注模型的性能,第四章提出基于协同训练的图像自动标注方法并结合实验结果进行对比分析;为了去除冗余标注词,第五章提出基于词语相关性的图像标注改善方法,最后在第六章总结了论文的主要研究工作并讨论了下一步的工作展望。论文的主要研究内容有:1、提出一种图像自动标注的混合模型LDA-SVM。首先利用词袋模型集成多种图像特征,得到图像的词袋表示;然后构造LDA模型来挖掘图像潜在主题,从训练图像集中学习两种潜在分布:图像的主题分布和图像的视觉词主题分布,并以图像的主题分布作为中间表示向量来训练SVM多类分类器。在图像的标注阶段根据从训练阶段获得的训练图像的视觉词主题分布来学习测试图像的潜在主题分布,结合训练好的SVM得到待标注词序列,选择概率最大的5个词作为最终的关键词。实验在两个标准的图像集(Corel 5K和IAPR TC-12)上进行,并使用标准的评价指标衡量图像标注的性能。通过与几个典型的图像标注方法进行比较,实验结果证明了LDA-SVM的可行性与高效性。2、提出一种基于协同训练的图像自动标注方法,充分利用了未标注样本来提高图像标注的性能。基于Co-Trining的理论,提取图像的不同特征集并使用两个不同的分类器——LDA-SVM和神经网络进行协同训练。未标注数据的价值就在于它能有效的辅助分类器进行加强训练,因此获得高质量的未标注样本是半监督学习方法的关键。本文使用自适应加权融合的方法来度量无标记样本的置信度,并将置信度高的样本交给两个分类器重新训练。实验选取了两个较大规模的数据集(IAPR TC-12和NUS-WIDE)进行实验,对比结果显示该方法的标注性能优于大多数先进的图像标注方法,验证了该方法确实能有效地利用未标注样本来提高图像的标注性能。3、结合图像标注改善思想,提出基于词语相关性的图像标注改善方法,利用加权互信息来度量标注词之间的相关性。考虑到标注词与图像具有不可分割的关系,在计算互信息的过程中加入待标注图像与训练图像集中相关图像的相似度来构造加权互信息模型,结合初始标注模型对待标注词置信度的影响,计算待标注词的最终标注置信度,选取置信度高的若干个词来组成待标注图像的关键词集合。通过选择不同的初始标注词个数进行实验,验证了该方法能有效地改善图像的标注。(本文来源于《广西师范大学》期刊2018-06-01)

杨晓玲[9](2018)在《基于字典学习的图像自动标注方法的研究》一文中研究指出随着计算机技术与移动互联网的快速发展,大量的图像信息每天以不同的方式产生并以数字的形式被上传到互联网上,这使得图像成为目前互联网时代中人们传递信息的重要手段。面对日益繁多的图像资源,如何方便快捷地组织和精准地检索目标图像显得迫在眉睫。图像自动标注是当前图像处理领域中的研究热点,其目的是为图像分配若干能描述其图像视觉内容的标签(关键词),它是当前以文本为基础的图像检索过程中一个关键性的步骤。图像自动标注在十多年的发展历程中,取得了丰硕的研究成果,不但其精度在持续提高,而且标注模型也在不断完善。但是由于低层视觉特征与高层语义之间存在语义鸿沟的制约,使得图像自动标注的标注性能和标注效率仍然有待提升。本文在学习探索现有标注方法的基础上,以提高图像自动标注性能和标注效率为出发点,结合机器学习中的稀疏编码技术和字典学习方法的高效性,提出基于Fisher字典学习的图像自动标注方法和基于判别字典学习的图像自动标注方法。具体工作内容如下:(1)首先简单介绍了图像自动标注的研究近况、当前研究中存在的难点与不足。然后介绍了与图像自动标注研究过程相关的基本理论知识。(2)针对数据集中标签分布的不平衡性、图像不同类型特征的有效组合后的纬度问题,提出了一种结合核空间映射的Fisher判别字典学习图像自动标注方法。本方法在高斯核函数的作用下将最初的输入数据映射到一个高维的核空间进行判别字典学习。实验结果表明,基于核空间Fisher判别字典学习的图像自动标注方法在改善图像标注性能方面具有一定的有效性和可行性。(3)为了降低语义鸿沟对图像自动标注的影响,提高标注效率,本文结合标签一致性判别字典的高效性提出一种多标签判别字典学习图像自动标注方法。该方法首先在字典学习的输入特征空间中,为每幅图像提取多种类型的特征,然后引入一个训练集标签相关正则化项,将样本之间的标签相关性作为字典学习的部分输入特征数据,最后以得到的判别字典和系数矩阵为基础设计相应的标签预测算法来实现未知图像的语义标注。最终实验数据表明,使用这种方法可以较好地效提升标注准确度和标注性能。(本文来源于《湘潭大学》期刊2018-05-04)

张倩[10](2018)在《基于深度学习的图像自动标注方法研究》一文中研究指出图像自动标注的目标是预先给待标注图像标注一些丰富的、恰当的可以准确描述图像内容的关键词。由于具有在语义层面描述图像的能力,图像自动标注不仅在图像分析与理解领域有着广泛的应用,在形如城市管理、生物医学工程等相关学科也有着广泛的应用。而其中如何挖掘图像低层视觉特征和高层语义之间的关联性以尽可能的减小“语义鸿沟”是图像自动标注的关键所在。随着深度学习技术的飞速发展,人们尝试利用深度神经网络的深度架构和高效的认知能力来获取更稳健的图像特征,以及挖掘图像特征和语义之间更深层次的关联来进行图像自动标注。本论文提出了一种基于深度学习的图像自动标注方法,同时设计并实现了相应的算法来验证本模型的有效性。首先,在大量文献阅读的基础上,本文将图像自动标注方法分为5大类且从模型的框架结构、主要思想、出发点及主要侧重点、复杂度等多个角度对各类标注方法进行了描述和分析,以及在各类标注方法之间进行了详细的对比。此外,对于图像自动标注领域目前仍未解决的一些难题也进行了讨论和分析。其次,本文提出了一种结合图像最近邻的基于深度学习的图像自动标注框架。一方面通过深度神经网络将原始数据逐层抽象为标注所需的稳健的特征表示;另一方面则利用深度学习强健的学习能力来抽象出图像视觉特征和高层语义之间更加深层次的联系以更好的完成图像自动标注。具体地,本论文所提出框架的研究内容主要包括:第一,为了更好的表征图像,本论文提出了一种结合图像视觉特征和语义特征的稳健的图像特征表示方法。本文尝试通过有效的图像语义特征来融合图像视觉特征以得到高效的图像表征。具体来说,一是利用卷积神经网络(Convolutional Neural Networks,CNN)获取图像视觉特征;二是根据待标注图像的邻域图像来构建候选标签集,再通过多层感知机网络获得待标注图像的语义特征表示。第二,为了进一步的提升图像自动标注的性能,引入了标签个数预测模块。也即,考虑到不同图像之间内容和场景复杂度的差异,不再人为限制给每幅图像标注固定个数的标签,而是根据图像自身内容的复杂性,灵活的自动预测标签个数来完成图像标注。这样的标注方式也更加契合现实需求。最后,通过所获取的稳健的图像特征,分别训练多目标分类模型和标签个数预测回归模型,通过多目标分类结果结合所预测标签个数进行图像自动标注。为了验证本文所提出模型的性能,对于标注有81个主题或标注有1000个标签的标准图像集NUS-WIDE,通过模块功能验证实验,证明了本模型所提出的各功能模块(语义特征获取模块、标签个数预测模块)的有效性;以及通过和采用深度学习技术的图像自动标注领域一些经典模型(CNN+softmax模型、CNN+WARP模型、CNN-RNN模型、RIA模型、SINN模型以及tag neighbor+tag vector模型)的对比,也验证了本文所提出的标注方法是有价值的。(本文来源于《华中科技大学》期刊2018-05-01)

图像自动标注论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

根据数据资料显示,一些常见的眼科疾病都可以利用眼底图像的形式观察检测到,白内障就是其中一种常见性的眼科疾病。本文主要利用机器学习算法中的图像识别技术,对白内障眼底图像进行诊断识别,提出了能充分利用无标签的眼底图像数据进行半监督学习,从而提升模型在测试集上准确率的半监督学习算法。本文提出的基于半监督学习的白内障眼底图像自动分类标注系统对降低医疗成本,缓解短缺的医生资源以及提升白内障疾病的诊疗效率具有很重要的科研价值和临床意义。本文主要完成了如下几个方面的工作:在白内障眼底图像预处理阶段,使用了图像灰度化来将原始的OCT彩色眼底图像转换成灰度图,使用像素值标准化和归一化将图像的像素值划归到同一个灰度范围,使用限制对比度直方图均衡化(CLAHE)的方法来对图像进行初步的增强,使用伽马矫正来去除光照不均对图像造成的影响。在眼底图像特征提取阶段,提取了图像的颜色特征,纹理特征,小波特征,轮辐特征以及眼底血管五类特征,共计128维。在半监督算法实现阶段,本文使用了两种半监督学习算法,一种是基于传统的机器学习算法实现的半监督算法,另一种是基于生成对抗神经网络(GAN)实现的半监督学习算法。本文使用得数据集包括4000张已标注数据以及3851张未标注数据,其中4000张数据集分为4类。在实验过程中,将4000张已经标注的白内障眼图像按照2:1:1的比例划分为训练,验证和测试集。最终,基于半监督学习的分类模型在测试集上最高能达到87.5%的四分类准确率,该结果也充分证明了利用计算机系统辅助诊断对图像进行分类并标注是可实施的。也在一定程度上推进了白内障自动分类系统投入实际医学应用的进程。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

图像自动标注论文参考文献

[1].吕凡,胡伏原,张艳宁,夏振平,盛胜利.面向图像自动语句标注的注意力反馈模型[J].计算机辅助设计与图形学学报.2019

[2].曹颖.基于半监督学习的白内障眼底图像自动标注方法研究[D].中北大学.2019

[3].税留成,刘卫忠,冯卓明.基于生成式对抗网络的图像自动标注[J].计算机应用.2019

[4].邹北骥,郭云镝,陈再良,何骐,朱承璋.辅助青光眼研究的具有DDLS自动分类功能的眼底图像标注工具(英文)[J].JournalofCentralSouthUniversity.2018

[5].汪鹏,张奥帆,王利琴,董永峰.基于迁移学习与多标签平滑策略的图像自动标注[J].计算机应用.2018

[6].吕凡.基于生成对抗网络的图像自动文本标注方法研究[D].苏州科技大学.2018

[7].吕海峰.自动图像语义标注方法的研究[D].江南大学.2018

[8].林兰.基于半监督学习的图像自动标注方法研究[D].广西师范大学.2018

[9].杨晓玲.基于字典学习的图像自动标注方法的研究[D].湘潭大学.2018

[10].张倩.基于深度学习的图像自动标注方法研究[D].华中科技大学.2018

标签:;  ;  ;  

图像自动标注论文-吕凡,胡伏原,张艳宁,夏振平,盛胜利
下载Doc文档

猜你喜欢