导读:本文包含了分布式并行算法论文开题报告文献综述及选题提纲参考文献,主要关键词:车辆路径问题,多车型车辆路径,迁移算子,并行遗传
分布式并行算法论文文献综述
王超,袁杰红[1](2019)在《分布式并行遗传算法求解多车型车辆路径问题》一文中研究指出传统遗传算法在求解HVRP问题时寻优效率不高,在搜索过程中易陷入局部最优,发生早熟。为解决上述问题,文章在传统遗传算法的基础上,采用多个子算法并行分布、同时迭代的方式调整算法结构,并引入迁移算子实现迭代过程中各子算法间的信息共享,以提升寻优效率。(本文来源于《物流科技》期刊2019年10期)
张清勇,王皓冉,雷德明[2](2019)在《求解分布式并行机调度的新型帝国竞争算法》一文中研究指出提出一种求解异构工厂分布式并行机调度问题(DPMSP)的新型帝国竞争算法(ICA),以最小化最大完成时间作为优化目标.首先,将DPMSP的优化简化为对工厂分配子问题的求解,提出相应的编码方案并采用最大处理时间规则解码;然后,采用基于加工速度的概率分配方法构建初始种群,引入殖民国家同化以加强对优秀个体的搜索并在革命中运用基于工件-工速积的新型插入算子以改善解的质量;最后进行大量数值实验.计算结果表明该新型ICA在分布式并行机调度问题求解方面具有较强的搜索优势和较好的稳定性.(本文来源于《华中科技大学学报(自然科学版)》期刊2019年08期)
张建[3](2019)在《分布式估计算法在考虑差异工件的并行批处理机调度中的应用》一文中研究指出论文考虑包含差异工件的并行批处理机调度问题,优化目标是最小化制造跨度.在不违背机器容量的限制下,所有工件需要被分成不同的批次,然后被安排在机器上进行加工.首先根据问题提出一个混合整数规划模型,并提出一个下界;采用FF-LPT规则实现对工件的分批和排序;然后提出基于4种更新机制的分布式估计算法(EDA)来对问题求解.最后通过实验对各类规模不同的算例进行仿真,并将结果和模拟退火算法(SA)、遗传算法(GA)作对比,验证了算法的有效性.(本文来源于《计算机系统应用》期刊2019年06期)
闵瑞高[4](2019)在《基于分布式并行计算的高性能演化算法研究》一文中研究指出随着互联网和计算机的普及,人类社会已经进入了信息化时代。伴随着社会的发展,问题规模也逐渐增大,许多实际问题也随之成为大规模优化问题。然而随着问题规模的增大、决策变量的增多,“维度灾难”使很多传统问题的解决方法难以奏效。演化算法作为经典的启发式算法,有着易理解、收敛速度快、搜索能力强的特性,在解决低维小规模问题上表现优异,然而随着问题规模扩大之后,演化算法也同样出现了搜索性能会急剧下降的问题。面对这种情况,当前一种较为流行的解决方案是将合作协同进化框架与演化算法相结合,将大规模优化问题分解为多个规模较小的子问题,取得了非常不错的优化结果。其算法求解过程可以分为问题分解、子问题优化、整合优化结果叁个阶段。大规模优化问题由于其问题的复杂性,其整体求解过程是一个非常耗时的漫长过程。目前,关于如何改进算法以提高问题优化结果的研究有很多,而对于如何降低各个阶段的求解时间、提升大规模优化问题求解效率的研究则非常有限。本文以大规模优化问题为研究对象,采用改进的差分分组算法(Differential Grouping 2,DG2)作为问题的分解方法,合作协同量子行为粒子群优化算法(Cooperative Coevolution Quantun-behaved Particle Swarm Optimization,CCQPSO)作为问题求解阶段的优化算法,通过分析DG2算法的并行化可行性,借助协同进化算法和量子行为粒子群优化算法的天然并行性,实现了大规模优化问题在分解阶段、子问题优化阶段的并行化。本文的主要工作有:1)研究了在共享内存模型中基于OpenMP实现的并行DG2分组算法(Parallel Differential Grouping 2,P-DG2),该算法借助OpenMP框架,将传统的串行DG2分组算法进行并行化改进,使之更加符合并行化程序理念,实现了任意多核的并行加速计算。在IEEE CEC’2013 LSGO测试函数上的实验结果表明,P-DG2算法在不影响分组结果和精度的情况下,有效减少了算法在分组阶段的运行时间,取得了良好的加速比和效率性能。2)研究了在消息通信模型中基于MPI的并行协同进化量子行为粒子群优化算法(Parallel-Cooperative Coevolution Quantun-behaved Particle Swarm Optimization,PCCQPSO)及其相关的改进策略。算法从建立拓扑模型结构切入,采用粗粒度的策略,将协同进化与MPI的进程并行相结合,保证算法的收敛效果。同时,对算法进行进一步改进,引入二次分组策略和邻域通信策略,提升算法的整体性能。实验表明,并行化改进之后的算法在大规模优化问题上具有更好的优化结果。3)研究了演化算法在国产超级计算机神威·太湖之光的并行化,国产CPU采用主从核的构造,计算采用核间并行MPI+核内并行OpenACC(进程并行+线程并行)的方式。在这种混合并行计算模型的框架下,研究了传统演化算法和CCQPSO算法在解决高维度问题情况下的表现,实验表明CCQPSO的性能通过大规模并行得到了进一步的提升,且具有非常好的并行可扩展性。本论文通过结合演化算法和并行计算的一些特性,借助合作协同进化框架,对利用演化算法求解大规模优化问题的分组、求解、计算阶段进行了并行化处理,同时分析了其并行化之后的效率和加速比表现。实验结果表明,并行化之后的结果在保证正确性的同时,极大减少了算法执行的时间,在1000维的大规模优化问题上表现出了良好的性能。同时,在部分问题上,基于分解策略的并行化会提高算法的优化性能,可以同时促进加速和结果的优化。此外,通过在超级计算机神威太湖之光的大规模并行来看,演化算法的分布式并行仍然具有非常好的性能表现,在求解大规模优化问题上仍然有许多非常值得研究的工作。(本文来源于《江南大学》期刊2019-06-01)
胡小强,吴翾,闻立杰,王建民[5](2019)在《基于Spark的并行分布式过程挖掘算法》一文中研究指出针对传统的过程发现算法对大规模事件日志挖掘效率低的问题,提出一种利用Spark集群进行加速过程挖掘的方法。该方法主要针对基于日志活动关系的过程挖掘算法,对抽取活动关系阶段进行加速。通过并行分布式抽取活动关系,将事件日志转化为活动关系矩阵。然后利用关系矩阵,按算法原本的后续步骤,挖掘出过程模型。利用Spark实现分布式α-Mine算法和分布式Flexible Heuristic Miner算法,结果表明:所提方法在时间消耗上优于目前最好的算法,挖掘效率明显提升。(本文来源于《计算机集成制造系统》期刊2019年04期)
桑渊博,曾建潮,谭瑛,孙超利[6](2019)在《基于分布式框架的并行PSO算法》一文中研究指出在使用微粒群算法对大规模优化问题求解时往往需要大量的目标函数评价次数,从而耗费大量的计算时间,而分布式计算和通用计算图形处理器(General Purpose GPU)可以减少耗时.本文通过将微粒群算法在分布式框架下GPU并行计算实现,将粒子分到各个计算节点进行异步计算,而每个节点中的粒子实行同步进化,从而提高微粒群算法求解大规模优化问题的效率.实验方法采用5个标准测试函数进行测试,实验结果表明本文方法在在求解大规模优化问题时在计算效率上有了数倍至数十倍的提升.(本文来源于《中北大学学报(自然科学版)》期刊2019年02期)
何马均[7](2019)在《深度学习框架TensorFlow的高效分布式并行算法研究》一文中研究指出信息化时代高速发展,大数据的量与日俱增,通过云计算平台对大数据进行分析利用已成为企业之间竞争的强有力工具。如何更有效地抓住大数据资源,最好的选择莫过于对人工智能深度学习的利用。而在深度学习过程中,一个好的深度学习框架则必不可少,这个框架必须有着灵活性高、移植性强、支持语言多等特点以应对时刻变化着的应用需求,谷歌公司开源的TensorFlow则是这样的一个优秀深度学习框架的存在。TensorFlow作为一个年轻的开源项目,因其在深度学习上的种种优势而广受推崇。但是,随着深度学习被应用于越来越复杂的问题处理中,深度学习模型变得越来越庞大,TensorFlow也表现出了它的不足之处。往往对一个较为复杂的深度模型进行迭代训练需要几小时、几天甚至是几周的时间,这对于高速发展的信息时代是不可接受的时间消耗。即使TensorFlow已经支持了分布式迭代训练,对训练时间长的问题有所改善,但是仍不能达到要求,依然存在可以优化的地方。如何优化分布式训练算法,高计算设备利用率、减少模型训练时间则是本论文的主要研究目标所在。为了完成上述目标,本论文首先深入TensorFlow的底层实现原理,分析理解了TensorFlow系统架构、数据流图、会话管理、分布式执行、数据输入等的具体实现。然后以TensorFlow的两种分布式模式——数据并行和模型并行为切入点,分别设计和实现了一种优化算法:针对数据并行,实现算法以流水线执行方式取代原本的线形执行模式;对于模型并行,则实现算法以创新性贪心算法执行模型划分取代原本的随机模型划分模式。最后,通过多组对比实验,验证了本论文出的两个优化算法的有效性:数据并行优化算法可平均升计算设备利用率28%;模型并行优化算法可平均节省深度模型训练时间34%。完成了TensorFlow加速训练模型的目的。(本文来源于《电子科技大学》期刊2019-03-23)
龚永罡,田润琳,廉小亲,吴萌[8](2019)在《基于分布式内存计算的叁元N-gram算法的并行化研究》一文中研究指出面对新媒体平台每日高达百万篇需处理的语料信息,提出了基于分布式内存计算模型的叁元N-gram并行化算法的思想,基于分布式内存计算模型并行训练叁元N-gram的算法,将数据信息和运算逻辑存储于内存中,有效缩减了Mapper到Reducer之间的传输的中间数据过程,减少了读写操作。在应用此算法对大规模语料库进行训练之后,结果表明此类算法对海量数据的处理能够发挥理想的效果,很大程度上解决了传统算法在处理海量数据集计算时间过长的问题。(本文来源于《计算机产品与流通》期刊2019年03期)
李国平,邢建春,王世强[9](2018)在《多传感器系统含状态约束的分布式并行卡尔曼滤波算法》一文中研究指出基于群智能建筑系统,提出一种含有状态约束的并行式卡尔曼滤波算法。算法通过物理约束建立方程,利用相邻节点间的约束关系和投影法计算出含有状态约束的卡尔曼滤波估计值,从而达到故障诊断与数据校核的目的。算法基于的分布式结构采用传感器网络节点的形式,每个节点有自身处理系统而不需要任何中心节点或中心通信设施。因此,本文提出的算法具有完全分布性,允许在多个测量节点之间独立计算。本文详细论述算法推导过程,并通过软件仿真与硬件测试,验证了算法的并行性、准确性和稳定性。(本文来源于《计算机与现代化》期刊2018年12期)
郑宝敏,余涛,瞿凯平,张孝顺,殷林飞[10](2018)在《多区域并行协同的多目标分布式帕累托最优潮流算法》一文中研究指出在开放电力市场的环境下,各区域电网合作与利益博弈共存,区域电网之间的信息保密问题显得愈发重要。现有的帕累托最优潮流求解方法均属于集中式算法,在优化时需要获知全网的信息,无法满足高私密性以及高可靠性的要求。在该背景下,寻求一种去中心化的分布式优化方法以保障系统内各区域电网的信息安全显得尤为重要。基于此,文中提出了一种多区域并行协同的多目标分布式帕累托最优潮流求解算法。该算法以法线边界交叉法为基础,将整个系统的多目标潮流优化问题分解为与多个子区域对应的子优化问题。每个子区域采用独立的优化器完成子问题的优化,区域之间仅交换联络线上的边界变量以及虚拟目标因子进行全局调整,不断逼近原问题的帕累托最优解集。IEEE 118节点算例仿真结果表明:所提算法可在有效实现多目标帕累托最优潮流分布式并行求解的同时,还可提高求解精度和减小计算内存,从而适用于在开放电力市场背景下各区域电网合作与利益博弈共存的运营模式。(本文来源于《电力系统自动化》期刊2018年20期)
分布式并行算法论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
提出一种求解异构工厂分布式并行机调度问题(DPMSP)的新型帝国竞争算法(ICA),以最小化最大完成时间作为优化目标.首先,将DPMSP的优化简化为对工厂分配子问题的求解,提出相应的编码方案并采用最大处理时间规则解码;然后,采用基于加工速度的概率分配方法构建初始种群,引入殖民国家同化以加强对优秀个体的搜索并在革命中运用基于工件-工速积的新型插入算子以改善解的质量;最后进行大量数值实验.计算结果表明该新型ICA在分布式并行机调度问题求解方面具有较强的搜索优势和较好的稳定性.
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
分布式并行算法论文参考文献
[1].王超,袁杰红.分布式并行遗传算法求解多车型车辆路径问题[J].物流科技.2019
[2].张清勇,王皓冉,雷德明.求解分布式并行机调度的新型帝国竞争算法[J].华中科技大学学报(自然科学版).2019
[3].张建.分布式估计算法在考虑差异工件的并行批处理机调度中的应用[J].计算机系统应用.2019
[4].闵瑞高.基于分布式并行计算的高性能演化算法研究[D].江南大学.2019
[5].胡小强,吴翾,闻立杰,王建民.基于Spark的并行分布式过程挖掘算法[J].计算机集成制造系统.2019
[6].桑渊博,曾建潮,谭瑛,孙超利.基于分布式框架的并行PSO算法[J].中北大学学报(自然科学版).2019
[7].何马均.深度学习框架TensorFlow的高效分布式并行算法研究[D].电子科技大学.2019
[8].龚永罡,田润琳,廉小亲,吴萌.基于分布式内存计算的叁元N-gram算法的并行化研究[J].计算机产品与流通.2019
[9].李国平,邢建春,王世强.多传感器系统含状态约束的分布式并行卡尔曼滤波算法[J].计算机与现代化.2018
[10].郑宝敏,余涛,瞿凯平,张孝顺,殷林飞.多区域并行协同的多目标分布式帕累托最优潮流算法[J].电力系统自动化.2018