多主体的研究与应用是近年来备受关注的热点领域,多主体强化学习理论与方法、多主体协作策略的研究是该领域重要研究方向,其理论和应用价值极为广泛,备受广大从事计算机应用、人工智能、自动控制、以及经济管理等领域研究者的关注。本书清晰地介绍了多主体、强化学习及多主体协作等基本概念和基础内容,明确地阐述了有关多主体强化学习、协作策略研究的发展过程及*新动向,深入地探讨了多主体强化学习与协作策略的理论与方法,具体地分析了多主体强化学习与协作策略在相关研究领域的应用方法。全书系统脉络清晰、基本概念清楚、图表分析直观,注重内容的体系化和实用性。通过本书的阅读和学习,读者即可掌握多主体强化学习及协作策略的理论和方法,更可了解在实际工作中应用这些研究成果的手段。 本书可作为从事计算机应用、人工智能、自动控制、以及经济管理等领域研究者的学习和阅读参考,同时高等院校相关专业研究生以及人工智能爱好者也可从中获得借鉴。
多主体的研究与应用是近年来备受关注的热点领 域,多主体强化学习理论与方法、多主体协作策略的 研究是该领域重要研究方向,其理论和应用价值极为 广泛,备受广大从事计算机应用、人工智能、自动控 制、以及经济管理等领域研究者的关注。孙若莹、赵 刚所著的《多主体强化学习协作策略研究》清晰地介 绍了多主体、强化学习及多主体协作等基本概念和基 础内容,明确地阐述了有关多主体强化学习、协作策 略研究的发展过程及*新动向,深入地探讨了多主体 强化学习与协作策略的理论与方法,具体地分析了多 主体强化学习与协作策略在相关研究领域的应用方法 。 全书系统脉络清晰、基本概念清楚、图表分析直 观,注重内容的体系化和实用性。通过本书的阅读和 学习,读者即可掌握多主体强化学习及协作策略的理 论和方法,更可了解在实际工作中应用这些研究成果 的手段。本书可作为从事计算机应用、人工智能、自 动控制、以及经济管理等领域研究者的学习和阅读参 考,同时高等院校相关专业研究生以及人工智能爱好 者也可从中获得借鉴。
chapter 1introduction1.1reinforcement learning1.1.1generality of reinforcement learning1.1.2reinforcement learning on markov decision processes1.1.3integrating reinforcement learning into agent architecture1.2multiagent reinforcement learning1.2.1multiagent systems1.2.2reinforcement learning in multiagent systems1.2.3learning and coordination in multiagent systems1.3ant system for stochastic combinatorial optimization1.3.1ants forage behavior1.3.2ant colony optimization1.3.3max-min ant system1.4motivations and consequences1.5book summarybibliographychapter 2reinforcement learning and its combination with ant colony system2.1introduction2.2investigation into reinforcement learning and swarm intelligence2.2.1temporal differences learning method2.2.2active exploration and experience replay in reinforcement learning2.2.3ant colony system for traveling salesman problem2.3the q-acs multiagent learning method2.3.1the q-acs learning algorithm2.3.2some properties of the q-acs learning method2.3.3relation with ant-q learning method2.4simulations and results2.5conclusionsbibliographychapter 3multiagent learning methods based on indirect media information sharing3.1introduction3.2the multiagent learning method considering statistics features3.2.1accelerated k-certainty exploration3.2.2the t-acs learning algorithm3.3the heterogeneous agents learning3.3.1the d-acs learning algorithm3.3.2some discussions about the d-acs learning algorithm3.4comparisons with related state-of-the-arts3.5simulations and results3.5.1experimental results on hunter game3.5.2experimental results on traveling salesman problem3.6conclusionsbibliographychapter 4action conversion mechanism in multiagent reinforcement learning4.1introduction4.2model-based reinforcement learning4.2.1dyna-q architecture4.2.2prioritized sweeping method4.2.3minimax search and reinforcement learning4.2.4rtp-q learning4.3the q-ac multiagent reinforcement learning4.3.1task model4.3.2converting action4.3.3multiagent cooperation methods4.3.4q-value update4.3.5the q-ac learning algorithm4.3.6using adversarial action instead o{ ~ probability exploration4.4simulations and results4.5conclusionsbibliographychapter 5multiagent learning approaches applied to vehicle routing problems5.1introduction5.2related state-of-the-arts5.2.1some heuristic algorithms5.2.2the vehicle routing problem with time windows5.3the multiagent learning applied to cvrp and vrptw5.4simulations and results5.5conclusionsbibliographychapter 6multiagent learning methods applied to multicast routing problems6.1introduction6.2multiagent q-learning applied to the network routing6.2.1investigation into q-routing6.2.2antnet investigation6.3some multicast routing in mobile ad hoc networks6.4the multiagent q-learning in the q-map multicast routing method6.4.1overview of the q-map multicast routing6.4.2join query packet, join reply packet and membership maintenance6.4.3convergence proof of q-map method6.5simulations and results6.6conclusionsbibliographychapter 7multiagent reinforcement learning for supply chain management7.1introduction7.2related issues of supply chain management7.3scm network scheme with multiagent reinforcement learning7.3.1scm with multiagent7.3.2the rl agents in scm network7.4application of the q-acs method to scm7.4.1the application model in scm7.4.2the q-acs learning applied to the scm system7.5conclusionbibliographychapter 8multiagent learning applied in supply chain ordering management8.1introduction8.2supply chain management model8.3the multiagent learning model for sc ordering management8.4simulations and results8.5conclusionsbibliography
《2024年管理类联考(MBA/MPA/MPAcc等)综合能力逻辑精选450题》内容简介:本书主要内容为管理类联考逻辑应试辅导用书,涉及参加MP
古埃及的莲花式柱头,中世纪的火焰式彩窗,玛丽―安托瓦内特的金色书房,拿破仑皇后的穿衣镜……几千年来审美潮流的变迁,正是通
《奢享·慢行——精品酒店中的非凡假期》内容简介:作者在本书中分享了在17家酒店度假的经历,有的传奇,有的奢华,有的精致,有的
《跑赢小古文:给小学生的小古文漫画故事(全4册)》内容简介:这是一套专门为6—12岁的小学生编撰的古文学习综合辅导书。全套书共
《公司战略与风险管理》内容简介:本教材以注册会计师协会新颁布的《注册会计师全国统一考试大纲》为依据,面向“公司战略与风险管
涂子沛、王涛、刘洪、刘远立、郎永淳鼎力推荐!聚首大生命产业前沿专家,解析数字医疗现状与趋势,构建全新医疗时代发展蓝图!国家
《让数据说话:数据可视化实战指南》内容简介:当代信息科学领域正面临数据爆炸的重大挑战,因此,海量数据的分析和处理显得越来越
Scikit-Learn与TensorFlow机器学习实用指南 本书特色 TensorFlow是一个采用数据流图(data flow graphs),用于数值计...
ParadigmsofAIProgrammingisthefirsttexttoteachadvancedCommonLisptechniquesintheco...
《快速写实:炭笔素描教程·唯美头像》内容简介:炭笔素描以上色速度快、不易反光、笔色浓黑、黑白灰层次易拉开、画面效果强烈且具
《4D打印:改变未来商业生态》内容简介:相较于3D打印的蔚然成风,横空出世的4D虽说还有点显得冷清,却给人们打开了一扇更为广阔的
《刘邦为什么能赢项羽》内容简介:◆ 刘邦为什么能赢项羽?因为他既丢得起脸,又狠得下心! ◆ 听萧何的话,收获大将韩信;丢得起脸
《U形曲线:高质量发展的底层逻辑》内容简介:本书提出了何为最优产品、最优服务、最优企业的问题,运用大量的案例系统介绍如何提高
轻松学习C程序设计-揭开计算机与程序设计的奥秘 本书特色 尽自己*大能力写一本比较轻,松颖,清晰,透彻,有价值的计算机科学入门是我的夙愿;把真正掌握计算奥秘和学...
《打开:周濂的100堂西方哲学课》内容简介:★100篇有趣、有料,不高冷、不轻佻的哲学普及文章;一部有营养、有态度,读得懂、读得
《C和C++安全编码》是关于C和C++安全编码的著作。《C和C++安全编码》介绍了C和C++程序中已经导致危险的、破坏性的基本编程错误,
日本珠寶學苑編?大場子著日本珠寶學苑是一所專門教授珠寶製作的教育機構,位於世界幾個有名的珠寶商業區域之一~東京上野附近的御
OWASP是一个开源的、非盈利的全球性安全组织,致力于应用软件的安全研究,在业界具有一流的影响力和**性。作为OWASP面向中国的区
《AutoCAD 2018实用教程(第5版)》内容简介:本书介绍了AutoCAD 2018的基本内容、使用方法和绘图的技能技巧。主要内容有:AutoCAD
计算机便携化是未来的发展趋势,而Android作为最受欢迎的手机、平板电脑操作之一,其发展的上升势头是势不可当的。而Android应用