导读:本文包含了多任务并行联盟论文开题报告文献综述及选题提纲参考文献,主要关键词:多任务联盟,量子遗传算法,多agent系统,agent联盟
多任务并行联盟论文文献综述
许波,余建平[1](2010)在《基于量子遗传算法的多任务联盟并行生成算法》一文中研究指出提出一种基于量子遗传算法的多任务联盟并行生成算法,运用量子编码映射的方式将任务分配与资源组合合并为一个过程,使多任务联盟问题的复杂性得到降低。实验表明,该算法在面向多任务的领域中可以快速、有效地并行形成多个任务求解联盟;与遗传算法和蚁群算法的对比实验表明,该算法是正确、有效、可行的,在运行时间和解的性能上都优于前两种算法。(本文来源于《计算机应用研究》期刊2010年06期)
许金友[2](2008)在《基于改进DPSO算法的多任务并行联盟生成研究》一文中研究指出在大规模复杂的MAS系统中,多Agent之间的协调、合作显得尤为重要。联盟机制是Agent之间合作的一种重要方式,Agent间通过组成联盟可以提高解决复杂问题的能力,其中联盟生成是联盟机制首要解决的关键问题。联盟生成主要研究在多Agent系统中动态生成面向任务的最优联盟。本文通过对传统的基于联盟结构的多任务并行联盟问题的分析,指出其在联盟能力资源利用方面的不足,提出从更小参与者粒度构建多任务联盟生成模型;引入离散粒子群算法(DPSO)求解多任务联盟生成问题,并对粒子群算法作了创新性地改进;最后通过实验验证了本文算法性能的优越性以及改进的联盟生成模型的合理性。本文研究的主要工作内容如下:首先,通过对基于联盟结构的多任务联盟进行分析,指出由于限定Agent最多只能加入一个联盟,导致任务联盟能力需求冲突以及Agent能力无法更好优化分配等,产生联盟能力资源剩余问题,进而提出一种依据类别的Agent能力分解策略,通过引入子Agent,从更小的联盟参与者粒度角度构建联盟生成模型。其次,引入离散粒子群算法求解联盟生成问题,通过对粒子运动轨迹的分析,首次指出粒子搜索的发散性是离散粒子群算法求解质量不高的主要原因。通过对粒子运动方程的修正(包括粒子的速度变化方程以及位置状态转移方程),提出一种改进的离散粒子群算法。在此基础上给出多任务联盟生成问题的求解算法,包括粒子的编码规则,粒子初始化策略以及粒子进化控制策略等。最后,通过实验进行模拟验证,结果表明本文改进的离散粒子群算法能够有效地降低了粒子搜索的发散性,相较于其它算法,联盟求解质量获得较大地提高;此外通过传统的联盟生成模型以及本文改进模型实验比较,得出本文模型有效地降低联盟能力资源的浪费,提高了多任务联盟的收益。(本文来源于《大连理工大学》期刊2008-12-19)
郝志峰,蔡瑞初[3](2008)在《并行多任务环境下Agent联盟的快速生成算法》一文中研究指出针对并行多任务环境下Agent联盟的生成问题,提出了基于多种群蚂蚁算法的Agent联盟生成策略.在该联盟生成策略中,种群内部蚂蚁相互合作,协调资源分配并完成相应任务;种群间蚂蚁进行资源竞争,协调解决并行多项任务间的资源冲突.同时,改进的信息素更新策略在综合考虑局部联盟收益和全局联盟收益的基础上提高了算法的全局搜索能力和生成联盟的质量.仿真实验结果表明,文中算法在多种典型条件下都能生成比现有算法更加高效的联盟结构.(本文来源于《华南理工大学学报(自然科学版)》期刊2008年09期)
尹翔,蒋建国,夏娜,常传文[4](2008)在《多任务多联盟并行生成:模型与求解》一文中研究指出联盟生成是MAS的一个关键问题,现有的工作主要研究如何针对一个任务生成最优联盟,很少考虑多任务多联盟生成问题(MMG).对MMG问题建立了模型,并进行了分析.在系统能力受限的条件下给出一种并行算法,首先找出最优可达任务集,再针对每个任务生成相应的联盟,从而实现了问题的分布并行求解.最后通过仿真试验说明了此算法的有效性.(本文来源于《系统工程理论与实践》期刊2008年04期)
蒋建国,苏兆品,齐美彬,张国富[5](2008)在《基于强化学习的多任务联盟并行形成策略(英文)》一文中研究指出Agent coalition is an important manner of agents' coordination and cooperation.Forming a coalition,agents can enhance their ability to solve problems and obtain more utilities.In this paper,a novel multi-task coalition parallel formation strategy is presented,and the conclusion that the process of multi-task coalition formation is a Markov decision process is testified theoretically.Moreover,reinforcement learning is used to solve agents' behavior strategy,and the process of multi-task coalition parallel formation is described.In multi-task oriented domains,the strategy can effectively and parallel form multi-task coalitions.(本文来源于《自动化学报》期刊2008年03期)
苏兆品,蒋建国,夏娜,张国富[6](2008)在《基于维数划分策略和免疫的多任务联盟并行生成算法》一文中研究指出设计了一种基于维数的Agent能力划分策略,提出"子Agent"概念;在此基础上设计了一种基于叁维二进制编码的免疫算法求解多任务联盟并行生成问题,并对疫苗采取了自适应提取的策略.实验结果证明了该算法的有效性.(本文来源于《系统工程理论与实践》期刊2008年01期)
多任务并行联盟论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
在大规模复杂的MAS系统中,多Agent之间的协调、合作显得尤为重要。联盟机制是Agent之间合作的一种重要方式,Agent间通过组成联盟可以提高解决复杂问题的能力,其中联盟生成是联盟机制首要解决的关键问题。联盟生成主要研究在多Agent系统中动态生成面向任务的最优联盟。本文通过对传统的基于联盟结构的多任务并行联盟问题的分析,指出其在联盟能力资源利用方面的不足,提出从更小参与者粒度构建多任务联盟生成模型;引入离散粒子群算法(DPSO)求解多任务联盟生成问题,并对粒子群算法作了创新性地改进;最后通过实验验证了本文算法性能的优越性以及改进的联盟生成模型的合理性。本文研究的主要工作内容如下:首先,通过对基于联盟结构的多任务联盟进行分析,指出由于限定Agent最多只能加入一个联盟,导致任务联盟能力需求冲突以及Agent能力无法更好优化分配等,产生联盟能力资源剩余问题,进而提出一种依据类别的Agent能力分解策略,通过引入子Agent,从更小的联盟参与者粒度角度构建联盟生成模型。其次,引入离散粒子群算法求解联盟生成问题,通过对粒子运动轨迹的分析,首次指出粒子搜索的发散性是离散粒子群算法求解质量不高的主要原因。通过对粒子运动方程的修正(包括粒子的速度变化方程以及位置状态转移方程),提出一种改进的离散粒子群算法。在此基础上给出多任务联盟生成问题的求解算法,包括粒子的编码规则,粒子初始化策略以及粒子进化控制策略等。最后,通过实验进行模拟验证,结果表明本文改进的离散粒子群算法能够有效地降低了粒子搜索的发散性,相较于其它算法,联盟求解质量获得较大地提高;此外通过传统的联盟生成模型以及本文改进模型实验比较,得出本文模型有效地降低联盟能力资源的浪费,提高了多任务联盟的收益。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
多任务并行联盟论文参考文献
[1].许波,余建平.基于量子遗传算法的多任务联盟并行生成算法[J].计算机应用研究.2010
[2].许金友.基于改进DPSO算法的多任务并行联盟生成研究[D].大连理工大学.2008
[3].郝志峰,蔡瑞初.并行多任务环境下Agent联盟的快速生成算法[J].华南理工大学学报(自然科学版).2008
[4].尹翔,蒋建国,夏娜,常传文.多任务多联盟并行生成:模型与求解[J].系统工程理论与实践.2008
[5].蒋建国,苏兆品,齐美彬,张国富.基于强化学习的多任务联盟并行形成策略(英文)[J].自动化学报.2008
[6].苏兆品,蒋建国,夏娜,张国富.基于维数划分策略和免疫的多任务联盟并行生成算法[J].系统工程理论与实践.2008